Freigeben über


Was ist Azure KI-Modellinferenzdienst?

Der Azure KI-Modellinferenzdienst bietet Zugriff auf die leistungsstärksten Modelle, die im Azure KI-Modellkatalog verfügbar sind. Sie kommen von den wichtigsten Modellanbietern in der Branche, darunter OpenAI, Microsoft, Meta, Mistral, Cohere, G42 und AI21 Labs. Diese Modelle können in Softwarelösungen integriert werden, um eine breite Palette von Aufgaben wie Inhaltsgenerierung, Zusammenfassungen, Bildverständnis, semantische Suche und Codegenerierung zu liefern.

Der Azure KI-Modellinferenzdienst bietet eine Möglichkeit, Modelle als APIs zu nutzen, ohne sie in Ihrer Infrastruktur zu hosten. Modelle werden in einer von Microsoft verwalteten Infrastruktur gehostet, wodurch API-basierter Zugriff auf das Modell des Modellanbieters ermöglicht wird. Der API-basierte Zugriff kann die Kosten für den Zugriff auf ein Modell dramatisch reduzieren und die Bereitstellungserfahrung vereinfachen.

Modelle

Sie erhalten Zugriff auf die wichtigsten Modellanbieter in der Branche, einschließlich OpenAI, Microsoft, Meta, Mistral, Cohere, G42 und AI21 Labs. Modellanbieter definieren die Lizenzbedingungen und legen den Preis für die Verwendung ihrer Modelle fest. Die folgende Liste zeigt alle verfügbaren Modelle:

Modellanbieter Modelle
AI21 Labs – AI21-Jamba-1.5-Mini
– AI21-Jamba-1.5-Large
Azure OpenAI – o1-preview (Zugriff anfordern)
– o1-mini (Zugriff anfordern)
– gpt-4o-mini
– gpt-4o
– text-embedding-3-small
– text-embedding-3-large
Cohere – Cohere-command-r-plus-08-2024
– Cohere-command-r-08-2024
– Cohere-embed-v3-multilingual
– Cohere-embed-v3-english
– Cohere-command-r-plus
– Cohere-command-r
Meta AI – Meta-Llama-3-8B-Instruct
– Meta-Llama-3-70B-Instruct
– Meta-Llama-3.1-8B-Instruct
– Meta-Llama-3.1-70B-Instruct
– Meta-Llama-3.1-405B-Instruct
– Llama-3.2-11B-Vision-Instruct
– Llama-3.2-90B-Vision-Instruct
Mistral AI – Mistral-Small
– Mistral-Nemo
– Mistral-large
– Mistral-large-2407
Microsoft – Phi-3-mini-4k-instruct
– Phi-3-medium-4k-instruct
– Phi-3-mini-128k-instruct
– Phi-3-medium-128k-instruct
– Phi-3-small-8k-instruct
– Phi-3-small-128k-instruct
– Phi-3.5-vision-instruct
– Phi-3.5-mini-instruct
– Phi-3.5-MoE-instruct

Sie können entscheiden und konfigurieren, welche Modelle für das Rückschließen in der erstellten Ressource verfügbar sind. Wenn ein bestimmtes Modell konfiguriert ist, können Sie dann Vorhersagen daraus generieren, indem Sie den Modellnamen oder den Bereitstellungsnamen für Ihre Anforderungen angeben. Für die Verwendung sind in Ihrem Code keine weiteren Änderungen erforderlich.

Um zu erfahren, wie Sie der Azure KI-Modellinferenz-Ressource Modelle hinzufügen und diese verwenden, lesen Sie Hinzufügen und Konfigurieren von Modellen zu Azure KI-Modellen in Azure KI-Modellinferenz.

Preise

Modelle, die von Nicht-Microsoft-Anbietern angeboten werden (z. B. Meta AI- und Mistral-Modelle), werden über den Azure Marketplace abgerechnet. Für solche Modelle müssen Sie das jeweilige Modellangebot gemäß den Nutzungsbedingungen des kommerziellen Microsoft-Marketplace abonnieren. Benutzer akzeptieren Lizenzbedingungen für die Verwendung der Modelle. Preisinformationen für den Verbrauch werden während der Bereitstellung bereitgestellt.

Modelle, die von Microsoft angeboten werden (z. B. Phi-3-Modelle und Azure OpenAI-Modelle), haben diese Anforderung nicht, und sie werden über Azure-Verbrauchseinheiten als First Party-Verbrauchsdienste in Rechnung gestellt. Wie in den Produktbedingungen beschrieben, erwerben Sie Erstanbieter-Verbrauchsdienste mithilfe von Azure-Verbrauchseinheiten, sie unterliegen jedoch nicht den Azure-Dienstbestimmungen.

Nächste Schritte