Hinzufügen und Konfigurieren von Modellen zum Azure KI-Modellinferenzdienst
Sie können entscheiden und konfigurieren, welche Modelle für das Rückschließen im Rückschlussendpunkt des Ressourcenmodells verfügbar sind. Wenn ein bestimmtes Modell konfiguriert ist, können Sie dann Vorhersagen daraus generieren, indem Sie den Modellnamen oder den Bereitstellungsnamen für Ihre Anforderungen angeben. Für die Verwendung sind in Ihrem Code keine weiteren Änderungen erforderlich.
In diesem Artikel erfahren Sie, wie Sie dem Azure KI-Modellinferenzdienst in Azure KI Services ein neues Modell hinzufügen.
Voraussetzungen
Damit Sie die Anweisungen in diesem Artikel ausführen können, benötigen Sie Folgendes:
- Ein Azure-Abonnement. Wenn Sie GitHub-Modelle verwenden, können Sie Ihre Erfahrung upgraden und während dem Prozess ein Azure-Abonnement erstellen. Erfahren Sie mehr unter Upgrade von GitHub-Modellen auf Azure KI-Modelle in KI Services.
- Eine Azure KI Services-Ressource. Weitere Informationen finden Sie unter Erstellen einer Azure KI Services-Ressource.
Modell hinzufügen
Im Gegensatz zu GitHub-Modellen, bei denen alle Modelle bereits konfiguriert sind, können Sie mit der Azure KI Services-Ressource steuern, welche Modelle in Ihrem Endpunkt und unter welcher Konfiguration verfügbar sind.
Sie können alle Modelle hinzufügen, die Sie im Endpunkt benötigen, indem Sie Azure KI Foundry für GitHub verwenden. Im folgenden Beispiel fügen wir dem Dienst ein Mistral-Large
-Modell hinzu:
Wechseln Sie zum Abschnitt Modellkatalog in Azure KI Foundry für GitHub.
Scrollen Sie zu dem Modell, an dem Sie interessiert sind, und wählen Sie es aus.
Sie können die Details des Modells auf der Modellkarte überprüfen.
Klicken Sie auf Bereitstellen.
Bei Modellanbietern, die zusätzliche Vertragsbedingungen erfordern, werden Sie aufgefordert, diese Geschäftsbedingungen zu akzeptieren. Mistral-Modelle fordern Sie beispielsweise auf, andere Geschäftsbedingungen zu akzeptieren. Akzeptieren Sie die Geschäftsbedingungen in diesen Fälle, indem Sie Abonnieren und Bereitstellen auswählen.
Sie können die Bereitstellungseinstellungen zu diesem Zeitpunkt konfigurieren. Standardmäßig erhält die Bereitstellung den Namen des Modells, das Sie bereitstellen. Der Bereitstellungsname wird im Parameter
model
verwendet, um die Anforderung an diese bestimmte Modellbereitstellung weiterzuleiten. Mit dieser Einstellung können Sie auch bestimmte Namen für Ihre Modelle konfigurieren, wenn Sie bestimmte Konfigurationen anfügen. Beispielsweiseo1-preview-safe
für ein Modell mit einem strengen Inhaltssicherheitsfilter.
Tipp
Jedes Modell kann unterschiedliche Bereitstellungstypen unterstützen und unterschiedliche Garantien für Datenresidenz oder Durchsatz bieten. Weitere Details finden Sie unter Bereitstellungstypen.
- Verwenden Sie die Option Anpassen, wenn Sie Einstellungen wie Inhaltsfilter oder Ratenbegrenzung (sofern verfügbar) ändern müssen.
Klicken Sie auf Bereitstellen.
Nach Abschluss der Bereitstellung wird das neue Modell auf der Seite aufgeführt und ist bereit für die Verwendung.
Verwenden des Modells
Bereitgestellte Modelle in Azure KI Services können mithilfe des Rückschlussendpunkts des Azure KI-Modells für die Ressource genutzt werden.
Gehen Sie zur Verwendung wie folgt vor:
Rufen Sie die Rückschlussendpunkt-URL und die Schlüssel des Azure KI-Modells von der Bereitstellungsseite oder der Seite Übersicht ab. Wenn Sie die Microsoft Entra ID-Authentifizierung verwenden, benötigen Sie keinen Schlüssel.
Verwenden Sie die Modellinferenz-Endpunkt-URL und die Schlüssel von vorher, wenn Sie Ihren Client erstellen. Im folgenden Beispiel wird das Azure KI-Rückschluss-Paket verwendet:
Installieren Sie das Paket
azure-ai-inference
mit Ihrem Paket-Manager, z. B. pip:pip install azure-ai-inference>=1.0.0b5
Warnung
Azure KI Services-Ressource erfordert die Version
azure-ai-inference>=1.0.0b5
für Python.Anschließend können Sie das Paket verwenden, um das Modell zu nutzen. Das folgende Beispiel zeigt, wie Sie einen Client erstellen, um Chatvervollständigungen zu nutzen:
import os from azure.ai.inference import ChatCompletionsClient from azure.core.credentials import AzureKeyCredential client = ChatCompletionsClient( endpoint=os.environ["AZUREAI_ENDPOINT_URL"], credential=AzureKeyCredential(os.environ["AZUREAI_ENDPOINT_KEY"]), )
Erkunden Sie unsere Beispiele,und lesen Sie die API-Referenzdokumentation für die ersten Schritte.
Geben Sie beim Erstellen Ihrer Anforderung den Parameter
model
an, und fügen Sie den von Ihnen erstellten Modellbereitstellungsnamen ein.from azure.ai.inference.models import SystemMessage, UserMessage response = client.complete( messages=[ SystemMessage(content="You are a helpful assistant."), UserMessage(content="Explain Riemann's conjecture in 1 paragraph"), ], model="mistral-large" ) print(response.choices[0].message.content)
Tipp
Wenn Sie den Endpunkt verwenden, können Sie den Parameter model
in jede verfügbare Modellbereitstellung in Ihrer Ressource ändern.
Darüber hinaus können Azure OpenAI-Modelle mithilfe des Azure OpenAI Service-Endpunkts in der Ressource genutzt werden. Dieser Endpunkt ist exklusiv für jede Modellbereitstellung und verfügt über eine eigene URL.
Anpassung von Modellbereitstellungen
Beim Erstellen von Modellbereitstellungen können Sie andere Einstellungen konfigurieren, einschließlich Inhaltsfilterung und Ratengrenzwerte. Um weitere Einstellungen zu konfigurieren, wählen Sie die Option Anpassen im Bereitstellungsassistenten aus.
Hinweis
Konfigurationen können je nach dem Modell variieren, das Sie bereitstellen.