Episode
Intelligente Apps auf AKS Ep02: Bringen Sie Ihre eigenen KI-Modelle zu intelligenten Apps auf AKS mit Kaito
durch Paul Yu, Ishaan Sehgal, Steven Murawski
Nehmen Sie teil, um zu erfahren, wie große Open-Source-Sprachmodelle (LLMs) mit HTTP-basierten Rückschlussendpunkten in Ihrem AKS-Cluster mithilfe des Kubernetes AI Toolchain Operator (KAITO) ausgeführt werden. Wir gehen die Einrichtung und Bereitstellung von containerisierten LLMs auf GPU-Knotenpools durch. Dabei sehen wir, wie KAITO den betrieblichen Aufwand für die Bereitstellung von GPU-Knoten und die Optimierung von Parametern der Modellimplementierung für GPU-Profile verringern kann.
Lernziele
- Erfahren Sie, wie Sie vorhandene Microservices mit KI-Funktionen erweitern.
- Lernen Sie, wie Sie progressive Verbesserungen zur Integration von KI-Funktionen in vorhandene Anwendungen nutzen können.
- Erfahren Sie, wie Sie Open-Source- oder benutzerdefinierte große Sprachmodelle (LLM) mit vorhandenen Anwendungen verwenden.
- Erfahren Sie, wie Sie Open-Source- oder benutzerdefinierte große Sprachmodelle in Azure Kubernetes Service ausführen.
Kapitel
- 00:00: Einführung
- 02:40 - Lernziele
- 04:35 - Demo – Bereitstellen der Aks Store-Demo-App
- 11:00 - AI-Workloads auf AKS
- 15:53 - KI und ML auf AKS
- 34:40 - Was ist Kaito?
- 42:03 - Herausforderungen mit BYO-Modellen
- 44:49 - Demo
- 01:16:04 - Zusammenfassung
Empfohlene Ressourcen
Folgen zu diesem Thema
- Vollständige Serie: Live lernen: Intelligente Apps auf AKS
Verbinden
- Paul Yu | LinkedIn: /in/yupaul
- Ishaan Sehgal | LinkedIn: /in/ishaan-sehgal
- Steven Murawski | Twitter: @StevenMurawski | LinkedIn: /in/usepowershell
Nehmen Sie teil, um zu erfahren, wie große Open-Source-Sprachmodelle (LLMs) mit HTTP-basierten Rückschlussendpunkten in Ihrem AKS-Cluster mithilfe des Kubernetes AI Toolchain Operator (KAITO) ausgeführt werden. Wir gehen die Einrichtung und Bereitstellung von containerisierten LLMs auf GPU-Knotenpools durch. Dabei sehen wir, wie KAITO den betrieblichen Aufwand für die Bereitstellung von GPU-Knoten und die Optimierung von Parametern der Modellimplementierung für GPU-Profile verringern kann.
Lernziele
- Erfahren Sie, wie Sie vorhandene Microservices mit KI-Funktionen erweitern.
- Lernen Sie, wie Sie progressive Verbesserungen zur Integration von KI-Funktionen in vorhandene Anwendungen nutzen können.
- Erfahren Sie, wie Sie Open-Source- oder benutzerdefinierte große Sprachmodelle (LLM) mit vorhandenen Anwendungen verwenden.
- Erfahren Sie, wie Sie Open-Source- oder benutzerdefinierte große Sprachmodelle in Azure Kubernetes Service ausführen.
Kapitel
- 00:00: Einführung
- 02:40 - Lernziele
- 04:35 - Demo – Bereitstellen der Aks Store-Demo-App
- 11:00 - AI-Workloads auf AKS
- 15:53 - KI und ML auf AKS
- 34:40 - Was ist Kaito?
- 42:03 - Herausforderungen mit BYO-Modellen
- 44:49 - Demo
- 01:16:04 - Zusammenfassung
Empfohlene Ressourcen
Folgen zu diesem Thema
- Vollständige Serie: Live lernen: Intelligente Apps auf AKS
Verbinden
- Paul Yu | LinkedIn: /in/yupaul
- Ishaan Sehgal | LinkedIn: /in/ishaan-sehgal
- Steven Murawski | Twitter: @StevenMurawski | LinkedIn: /in/usepowershell
Feedback? Melden Sie hier ein Problem.