Episodio
Intelligent Apps en AKS Ep02: Traiga sus propios modelos de IA a Intelligent Apps en AKS con Kaito
con Paul Yu, Ishaan Sehgal, Steven Murawski
Únase a nosotros para aprender a ejecutar modelos de lenguaje grande (LLM) de código abierto con puntos de conexión de inferencia basados en HTTP dentro del clúster de AKS mediante el operador KAITO (Kubernetes AI Toolchain Operator). Le guiaremos por la configuración y la implementación de LLM en contenedores en grupos de nodos de GPU y veremos cómo KAITO puede ayudar a reducir la carga operativa de aprovisionar nodos de GPU y ajustar los parámetros de implementación del modelo para ajustarse a los perfiles de GPU.
Objetivos de aprendizaje
- Obtenga información sobre cómo ampliar los microservicios existentes con funcionalidades de inteligencia artificial.
- Comprenda el uso de la mejora progresiva para integrar las funcionalidades de inteligencia artificial en las aplicaciones existentes.
- Aprenda a usar modelos de lenguaje grande (LLM) personalizados o de código abierto con aplicaciones existentes.
- Aprenda a ejecutar modelos de lenguaje grande personalizados o de código abierto en Azure Kubernetes Service
Capítulos
- 00:00 - Introducción
- 02:40 - Objetivos de aprendizaje
- 04:35 - Demostración: implementación de la aplicación de demostración de la tienda Aks
- 11:00 : cargas de trabajo de IA en AKS
- 15:53 : IA y ML en AKS
- 34:40 - ¿Qué es Kaito?
- 42:03 : Desafíos con modelos BYO
- 44:49 - Demostración
- 01:16:04 - Resumen
Recursos recomendados
Episodios relacionados
- Serie completa: Learn Live: Intelligent Apps en AKS
Conexión
- Paul Yu | LinkedIn: /in/yupaul
- Ishaan Sehgal | LinkedIn: /in/ishaan-sehgal
- Steven Murawski | Twitter: @StevenMurawski | LinkedIn: /in/usepowershell
Únase a nosotros para aprender a ejecutar modelos de lenguaje grande (LLM) de código abierto con puntos de conexión de inferencia basados en HTTP dentro del clúster de AKS mediante el operador KAITO (Kubernetes AI Toolchain Operator). Le guiaremos por la configuración y la implementación de LLM en contenedores en grupos de nodos de GPU y veremos cómo KAITO puede ayudar a reducir la carga operativa de aprovisionar nodos de GPU y ajustar los parámetros de implementación del modelo para ajustarse a los perfiles de GPU.
Objetivos de aprendizaje
- Obtenga información sobre cómo ampliar los microservicios existentes con funcionalidades de inteligencia artificial.
- Comprenda el uso de la mejora progresiva para integrar las funcionalidades de inteligencia artificial en las aplicaciones existentes.
- Aprenda a usar modelos de lenguaje grande (LLM) personalizados o de código abierto con aplicaciones existentes.
- Aprenda a ejecutar modelos de lenguaje grande personalizados o de código abierto en Azure Kubernetes Service
Capítulos
- 00:00 - Introducción
- 02:40 - Objetivos de aprendizaje
- 04:35 - Demostración: implementación de la aplicación de demostración de la tienda Aks
- 11:00 : cargas de trabajo de IA en AKS
- 15:53 : IA y ML en AKS
- 34:40 - ¿Qué es Kaito?
- 42:03 : Desafíos con modelos BYO
- 44:49 - Demostración
- 01:16:04 - Resumen
Recursos recomendados
Episodios relacionados
- Serie completa: Learn Live: Intelligent Apps en AKS
Conexión
- Paul Yu | LinkedIn: /in/yupaul
- Ishaan Sehgal | LinkedIn: /in/ishaan-sehgal
- Steven Murawski | Twitter: @StevenMurawski | LinkedIn: /in/usepowershell
¿Quiere hacer algún comentario? Comunique un problema aquí.