Épisode

Applications intelligentes sur AKS Ep02 : apportez vos propres modèles IA à Des applications intelligentes sur AKS avec Kaito

par Paul Yu, Ishaan Sehgal, Steven Murawski

Rejoignez-nous pour apprendre à exécuter des modèles de langage volumineux (LLM) open source avec des points de terminaison d’inférence basés sur HTTP au sein de votre cluster AKS à l’aide de l’opérateur KAITO (Kubernetes AI Toolchain Operator). Nous vous guiderons dans l’installation et le déploiement de machines virtuelles LLM conteneurisées sur des pools de nœuds GPU et découvrirons comment KAITO peut réduire la charge opérationnelle de l’approvisionnement des nœuds GPU et comment définir les paramètres de déploiement du modèle pour s’adapter aux profils GPU.

Objectifs d’apprentissage

  • Découvrez comment étendre des microservices existants grâce aux fonctionnalités d’IA.
  • Apprenez à utiliser une amélioration progressive pour intégrer des fonctionnalités d’IA à des applications existantes.
  • Découvrez comment utiliser du code open source ou des modèles de langage volumineux (LLM) personnalisés avec des applications existantes.
  • Découvrez comment exécuter du code open source ou des modèles de langage volumineux personnalisés sur Azure Kubernetes Service

Chapitres

Se connecter

Avancé
Architecte Solutions
Ingénieur DevOps
Développeur
Ingénieur IA
Azure Kubernetes Service (AKS)
Machines virtuelles Azure