Épisode
Applications intelligentes sur AKS Ep02 : apportez vos propres modèles IA à Des applications intelligentes sur AKS avec Kaito
par Paul Yu, Ishaan Sehgal, Steven Murawski
Rejoignez-nous pour apprendre à exécuter des modèles de langage volumineux (LLM) open source avec des points de terminaison d’inférence basés sur HTTP au sein de votre cluster AKS à l’aide de l’opérateur KAITO (Kubernetes AI Toolchain Operator). Nous vous guiderons dans l’installation et le déploiement de machines virtuelles LLM conteneurisées sur des pools de nœuds GPU et découvrirons comment KAITO peut réduire la charge opérationnelle de l’approvisionnement des nœuds GPU et comment définir les paramètres de déploiement du modèle pour s’adapter aux profils GPU.
Objectifs d’apprentissage
- Découvrez comment étendre des microservices existants grâce aux fonctionnalités d’IA.
- Apprenez à utiliser une amélioration progressive pour intégrer des fonctionnalités d’IA à des applications existantes.
- Découvrez comment utiliser du code open source ou des modèles de langage volumineux (LLM) personnalisés avec des applications existantes.
- Découvrez comment exécuter du code open source ou des modèles de langage volumineux personnalisés sur Azure Kubernetes Service
Chapitres
- 00:00 - Introduction
- 02 :40 - objectifs Apprentissage
- 04 :35 - Démonstration - Déployer l’application de démonstration Aks Store
- 11 :00 - Charges de travail IA sur AKS
- 15 :53 - IA et ML sur AKS
- 34 :40 - Qu’est-ce que Kaito ?
- 42 :03 - Défis avec les modèles BYO
- 44 :49 - Démonstration
- 01 :16 :04 - Résumé
Ressources recommandées
Épisodes associés
- Série complète : Learn Live : Intelligent Apps on AKS
Se connecter
- Paul Yu | LinkedIn : /in/yupaul
- Ishaan Sehgal | LinkedIn : /in/ishaan-sehgal
- Steven Murawski | Twitter : @StevenMurawski | LinkedIn : /in/usepowershell
Rejoignez-nous pour apprendre à exécuter des modèles de langage volumineux (LLM) open source avec des points de terminaison d’inférence basés sur HTTP au sein de votre cluster AKS à l’aide de l’opérateur KAITO (Kubernetes AI Toolchain Operator). Nous vous guiderons dans l’installation et le déploiement de machines virtuelles LLM conteneurisées sur des pools de nœuds GPU et découvrirons comment KAITO peut réduire la charge opérationnelle de l’approvisionnement des nœuds GPU et comment définir les paramètres de déploiement du modèle pour s’adapter aux profils GPU.
Objectifs d’apprentissage
- Découvrez comment étendre des microservices existants grâce aux fonctionnalités d’IA.
- Apprenez à utiliser une amélioration progressive pour intégrer des fonctionnalités d’IA à des applications existantes.
- Découvrez comment utiliser du code open source ou des modèles de langage volumineux (LLM) personnalisés avec des applications existantes.
- Découvrez comment exécuter du code open source ou des modèles de langage volumineux personnalisés sur Azure Kubernetes Service
Chapitres
- 00:00 - Introduction
- 02 :40 - objectifs Apprentissage
- 04 :35 - Démonstration - Déployer l’application de démonstration Aks Store
- 11 :00 - Charges de travail IA sur AKS
- 15 :53 - IA et ML sur AKS
- 34 :40 - Qu’est-ce que Kaito ?
- 42 :03 - Défis avec les modèles BYO
- 44 :49 - Démonstration
- 01 :16 :04 - Résumé
Ressources recommandées
Épisodes associés
- Série complète : Learn Live : Intelligent Apps on AKS
Se connecter
- Paul Yu | LinkedIn : /in/yupaul
- Ishaan Sehgal | LinkedIn : /in/ishaan-sehgal
- Steven Murawski | Twitter : @StevenMurawski | LinkedIn : /in/usepowershell
Vous voulez donner votre avis ? Soumettez un défi ici.