Freigeben über


Hinzufügen und Konfigurieren von Modellen zum Azure KI-Modellinferenzdienst

Sie können entscheiden und konfigurieren, welche Modelle für das Rückschließen im Rückschlussendpunkt des Ressourcenmodells verfügbar sind. Wenn ein bestimmtes Modell konfiguriert ist, können Sie dann Vorhersagen daraus generieren, indem Sie den Modellnamen oder den Bereitstellungsnamen für Ihre Anforderungen angeben. Für die Verwendung sind in Ihrem Code keine weiteren Änderungen erforderlich.

In diesem Artikel erfahren Sie, wie Sie dem Azure KI-Modellinferenzdienst in Azure KI Services ein neues Modell hinzufügen.

Voraussetzungen

Damit Sie die Anweisungen in diesem Artikel ausführen können, benötigen Sie Folgendes:

Modell hinzufügen

Im Gegensatz zu GitHub-Modellen, bei denen alle Modelle bereits konfiguriert sind, können Sie mit der Azure KI Services-Ressource steuern, welche Modelle in Ihrem Endpunkt und unter welcher Konfiguration verfügbar sind.

Sie können alle Modelle hinzufügen, die Sie im Endpunkt benötigen, indem Sie Azure KI Foundry für GitHub verwenden. Im folgenden Beispiel fügen wir dem Dienst ein Mistral-Large-Modell hinzu:

  1. Wechseln Sie zum Abschnitt Modellkatalog in Azure KI Foundry für GitHub.

  2. Scrollen Sie zu dem Modell, an dem Sie interessiert sind, und wählen Sie es aus.

  3. Sie können die Details des Modells auf der Modellkarte überprüfen.

  4. Klicken Sie auf Bereitstellen.

  5. Bei Modellanbietern, die zusätzliche Vertragsbedingungen erfordern, werden Sie aufgefordert, diese Geschäftsbedingungen zu akzeptieren. Mistral-Modelle fordern Sie beispielsweise auf, andere Geschäftsbedingungen zu akzeptieren. Akzeptieren Sie die Geschäftsbedingungen in diesen Fälle, indem Sie Abonnieren und Bereitstellen auswählen.

    Screenshot, der zeigt, wie Sie den Geschäftsbedingungen eines Mistral-Large-Modells zustimmen.

  6. Sie können die Bereitstellungseinstellungen zu diesem Zeitpunkt konfigurieren. Standardmäßig erhält die Bereitstellung den Namen des Modells, das Sie bereitstellen. Der Bereitstellungsname wird im Parameter model verwendet, um die Anforderung an diese bestimmte Modellbereitstellung weiterzuleiten. Mit dieser Einstellung können Sie auch bestimmte Namen für Ihre Modelle konfigurieren, wenn Sie bestimmte Konfigurationen anfügen. Beispielsweise o1-preview-safe für ein Modell mit einem strengen Inhaltssicherheitsfilter.

Tipp

Jedes Modell kann unterschiedliche Bereitstellungstypen unterstützen und unterschiedliche Garantien für Datenresidenz oder Durchsatz bieten. Weitere Details finden Sie unter Bereitstellungstypen.

  1. Verwenden Sie die Option Anpassen, wenn Sie Einstellungen wie Inhaltsfilter oder Ratenbegrenzung (sofern verfügbar) ändern müssen.

Screenshot, der zeigt, wie Sie die Bereitstellung bei Bedarf anpassen.

  1. Klicken Sie auf Bereitstellen.

  2. Nach Abschluss der Bereitstellung wird das neue Modell auf der Seite aufgeführt und ist bereit für die Verwendung.

Verwenden des Modells

Bereitgestellte Modelle in Azure KI Services können mithilfe des Rückschlussendpunkts des Azure KI-Modells für die Ressource genutzt werden.

Gehen Sie zur Verwendung wie folgt vor:

  1. Rufen Sie die Rückschlussendpunkt-URL und die Schlüssel des Azure KI-Modells von der Bereitstellungsseite oder der Seite Übersicht ab. Wenn Sie die Microsoft Entra ID-Authentifizierung verwenden, benötigen Sie keinen Schlüssel.

    Screenshot, der zeigt, wie die URL und der Schlüssel abgerufen werden, welche der Bereitstellung zugeordnet sind.

  2. Verwenden Sie die Modellinferenz-Endpunkt-URL und die Schlüssel von vorher, wenn Sie Ihren Client erstellen. Im folgenden Beispiel wird das Azure KI-Rückschluss-Paket verwendet:

    Installieren Sie das Paket azure-ai-inference mit Ihrem Paket-Manager, z. B. pip:

    pip install azure-ai-inference>=1.0.0b5
    

    Warnung

    Azure KI Services-Ressource erfordert die Version azure-ai-inference>=1.0.0b5 für Python.

    Anschließend können Sie das Paket verwenden, um das Modell zu nutzen. Das folgende Beispiel zeigt, wie Sie einen Client erstellen, um Chatvervollständigungen zu nutzen:

    import os
    from azure.ai.inference import ChatCompletionsClient
    from azure.core.credentials import AzureKeyCredential
    
    client = ChatCompletionsClient(
        endpoint=os.environ["AZUREAI_ENDPOINT_URL"],
        credential=AzureKeyCredential(os.environ["AZUREAI_ENDPOINT_KEY"]),
    )
    

    Erkunden Sie unsere Beispiele,und lesen Sie die API-Referenzdokumentation für die ersten Schritte.

  3. Geben Sie beim Erstellen Ihrer Anforderung den Parameter model an, und fügen Sie den von Ihnen erstellten Modellbereitstellungsnamen ein.

    from azure.ai.inference.models import SystemMessage, UserMessage
    
    response = client.complete(
        messages=[
            SystemMessage(content="You are a helpful assistant."),
            UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
        ],
        model="mistral-large"
    )
    
    print(response.choices[0].message.content)
    

Tipp

Wenn Sie den Endpunkt verwenden, können Sie den Parameter model in jede verfügbare Modellbereitstellung in Ihrer Ressource ändern.

Darüber hinaus können Azure OpenAI-Modelle mithilfe des Azure OpenAI Service-Endpunkts in der Ressource genutzt werden. Dieser Endpunkt ist exklusiv für jede Modellbereitstellung und verfügt über eine eigene URL.

Anpassung von Modellbereitstellungen

Beim Erstellen von Modellbereitstellungen können Sie andere Einstellungen konfigurieren, einschließlich Inhaltsfilterung und Ratengrenzwerte. Um weitere Einstellungen zu konfigurieren, wählen Sie die Option Anpassen im Bereitstellungsassistenten aus.

Hinweis

Konfigurationen können je nach dem Modell variieren, das Sie bereitstellen.

Nächste Schritte