Freigeben über


Was ist die Azure KI-Modellinferenz?

Die Azure KI-Modellinferenz bietet Zugriff auf die leistungsstärksten Modelle, die im Azure KI-Modellkatalog verfügbar sind. Die Modelle stammen von den wichtigsten Modellanbietern in der Branche, einschließlich OpenAI, Microsoft, Meta, Mistral, Cohere, G42 und AI21 Labs. Diese Modelle können in Softwarelösungen integriert werden, um eine breite Palette von Aufgaben bereitzustellen, die Inhaltsgenerierung, Zusammenfassung, Bildverstehen, semantische Suche und Codegenerierung umfassen.

Tipp

DeepSeek-R1 ist für die Bereitstellung als Serverloser API-Endpunkt verfügbar.

Azure KI-Modellinferenz bietet eine Möglichkeit, Modelle als APIs zu nutzen, ohne sie in Ihrer Infrastruktur zu hosten. Modelle werden in einer von Microsoft verwalteten Infrastruktur gehostet, wodurch API-basierter Zugriff auf das Modell des Modellanbieters ermöglicht wird. Der API-basierte Zugriff kann die Kosten für den Zugriff auf ein Modell dramatisch reduzieren und die Bereitstellungserfahrung vereinfachen.

Azure KI-Modellinferenz ist Teil von Azure KI Services, und Benutzende können über REST-APIs und SDKs in mehreren Sprachen wie Python, C#, JavaScript und Java auf den Dienst zugreifen. Sie können die Azure KI-Modellreferenz auch über Azure AI Foundry verwenden, indem Sie eine Verbindung konfigurieren.

Modelle

Sie erhalten Zugriff auf die wichtigsten Modellanbieter in der Branche, einschließlich OpenAI, Microsoft, Meta, Mistral, Cohere, G42 und AI21 Labs. Modellanbieter definieren die Lizenzbedingungen und legen den Preis für die Verwendung ihrer Modelle fest. Die folgende Liste zeigt alle verfügbaren Modelle:

Tipp

Eine detaillierte Übersicht über die Modelle, Funktionen und Details finden Sie im Artikel Modelle.

Anbieter Modelle
AI21 Labs – AI21-Jamba-1.5-Mini
– AI21-Jamba-1.5-Large
Azure OpenAI - o1
- gpt-4o
- o1-preview
- o1-mini
- gpt-4o-mini
- text-embedding-3-large
- text-embedding-3-small
Cohere - Cohere-embed-v3-english
- Cohere-embed-v3-multilingual
- Cohere-command-r-plus-08-2024
- Cohere-command-r-08-2024
- Cohere-command-r-plus
- Cohere-command-r
Core42 - jais-30b-chat
Meta - Llama-3.3-70B-Instruct
- Llama-3.2-11B-Vision-Instruct
- Llama-3.2-90B-Vision-Instruct
- Meta-Llama-3.1-405B-Instruct
- Meta-Llama-3-8B-Instruct
- Meta-Llama-3.1-70B-Instruct
- Meta-Llama-3.1-8B-Instruct
- Meta-Llama-3-70B-Instruct
Microsoft - Phi-3-mini-128k-instruct
- Phi-3-mini-4k-instruct
- Phi-3-small-8k-instruct
- Phi-3-medium-128k-instruct
- Phi-3-medium-4k-instruct
- Phi-3.5-vision-instruct
- Phi-3.5-MoE-instruct
- Phi-3-small-128k-instruct
- Phi-3.5-mini-instruct
- Phi-4
Mistral AI - Ministral-3B
- Mistral-large
- Mistral-small
- Mistral-Nemo
- Mistral-large-2407
- Mistral-Large-2411
- Codestral-2501
NTT Data - Tsuzumi-7b

Preise

Modelle von anderen Anbietern als Microsoft (z. B. Meta AI- und Mistral-Modelle) werden über den Azure Marketplace abgerechnet. Für solche Modelle müssen Sie das jeweilige Modellangebot gemäß den Nutzungsbedingungen des kommerziellen Microsoft-Marketplace abonnieren. Benutzer akzeptieren Lizenzbedingungen für die Verwendung der Modelle. Preisinformationen für den Verbrauch werden während der Bereitstellung bereitgestellt.

Bei Microsoft-Modellen (z. B. Phi-3-Modelle und Azure OpenAI-Modelle) erfolgt die Abrechnung über Azure-Verbrauchseinheiten als Erstanbieter-Verbrauchsdienste. Wie in den Produktbedingungen beschrieben, erwerben Sie Erstanbieter-Verbrauchsdienste mithilfe von Azure-Verbrauchseinheiten, sie unterliegen jedoch nicht den Azure-Dienstbestimmungen.

Tipp

Erfahren Sie, wie Sie in Azure KI-Modellinferenz Kosten überwachen und verwalten.

Verantwortungsvolle KI

Microsoft engagiert sich für die Weiterentwicklung von KI auf der Grundlage von Prinzipien, die den Menschen in den Mittelpunkt stellen. Generative Modelle wie diejenigen, die in Azure KI-Modellen zur Verfügung stehen, bieten potenziell bedeutende Vorteile, aber ohne ein sorgfältiges Design und eine durchdachte Risikominderung können solche Modelle auch falsche oder sogar schädliche Inhalte erzeugen.

Microsoft schützt mithilfe der folgenden Maßnahmen vor Missbrauch und unbeabsichtigten Schäden:

Erste Schritte

Azure KI-Modellinferenz ist ein neues Featureangebot für Azure KI Services-Ressourcen. Die ersten Schritte sind wie bei jedem anderen Azure-Produkt das Erstellen und Konfigurieren einer Ressource für die Azure KI-Modellinferenz oder Dienstinstanz in Ihrem Azure-Abonnement. Sie können beliebig viele Ressourcen erstellen und unabhängig konfigurieren, falls Sie über mehrere Teams mit unterschiedlichen Anforderungen verfügen.

Nachdem Sie eine Azure KI Services-Ressource erstellt haben, müssen Sie ein Modell bereitstellen, bevor Sie mit API-Aufrufen beginnen können. Standardmäßig sind keine Modelle verfügbar, sodass Sie steuern können, mit welchen Modellen Sie beginnen möchten. Weitere Informationen finden Sie im Tutorial Erstellen Ihrer ersten Modellimplementierung in Azure KI-Modellinferenz.

Nächste Schritte