Freigeben über


Bereitstellen von Azure OpenAI-Modellen mit Azure KI Foundry

Wichtig

Die in diesem Artikel markierten Elemente (Vorschau) sind aktuell als öffentliche Vorschau verfügbar. Diese Vorschauversion wird ohne Vereinbarung zum Servicelevel bereitgestellt und sollte nicht für Produktionsworkloads verwendet werden. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Zusätzliche Nutzungsbestimmungen für Microsoft Azure-Vorschauen.

In diesem Artikel erfahren Sie, wie Sie Azure OpenAI-Modellimplementierungen im Azure KI Foundry-Portal erstellen.

Azure OpenAI Service bietet eine Vielzahl von Modellen mit unterschiedlichen Funktionen und Preispunkten. Wenn Sie Azure OpenAI-Modelle im Azure KI Foundry-Portal bereitstellen, können Sie die Bereitstellungen mithilfe von prompt flow oder eines anderen Tools nutzen. Die Modellverfügbarkeit variiert je nach Region. Weitere Informationen zu den Details der einzelnen Modelle finden Sie unter Azure OpenAI Service-Modelle.

Um ein Azure OpenAI-Modell im Azure KI Foundry-Playground zu ändern und mit diesem zu interagieren, müssen Sie zuerst ein Azure OpenAI-Basismodell für Ihr Projekt bereitstellen. Sobald das Modell in Ihrem Projekt bereitgestellt und verfügbar ist, können Sie den REST-API-Endpunkt wie vorhanden nutzen oder mit Ihren eigenen Daten und anderen Komponenten (Einbettungen, Indizes usw.) weiter anpassen.

Voraussetzungen

  • Ein Azure-Abonnement mit einer gültigen Zahlungsmethode. Kostenlose Versionen oder Testversionen von Azure-Abonnements funktionieren nicht. Wenn Sie noch kein Azure-Abonnement haben, erstellen Sie zunächst ein kostenpflichtiges Azure-Konto.

  • Ein Azure KI Foundry-Projekt

Bereitstellen eines Azure OpenAI-Modells aus dem Modellkatalog

Führen Sie die folgenden Schritte aus, um ein Azure OpenAI-Modell wie gpt-4o-mini auf einem Echtzeitendpunkt aus dem Modellkatalog im Azure KI Foundry-Portal bereitzustellen:

  1. Melden Sie sich bei Azure KI Foundry an.
  2. Wenn Sie sich noch nicht in Ihrem Projekt befinden, wählen Sie es aus.
  3. Wählen Sie im linken Navigationsbereich den Modellkatalog aus.
  1. Wählen Sie im Filter Sammlungen die Option Azure OpenAI aus.

    Screenshot: Filtern nach OpenAI-Modellen im Katalog.

  2. Wählen Sie ein Modell wie gpt-4o-mini aus der Azure OpenAI-Sammlung aus.

  3. Wählen Sie Bereitstellen aus, um das Bereitstellungsfenster zu starten.

  4. Wählen Sie die Ressource aus, für die Sie das Modell bereitstellen möchten. Wenn Sie nicht über eine Ressource verfügen, können Sie eine erstellen.

  5. Geben Sie den Bereitstellungsnamen an, und ändern Sie andere Standardeinstellungen je nach Ihren Anforderungen.

  6. Klicken Sie auf Bereitstellen.

  7. Sie gelangen zur Seite mit den Bereitstellungsdetails. Wählen Sie In Playground öffnen aus.

  8. Wählen Sie Code anzeigen aus, um Codebeispiele abzurufen, die zum Verwenden des bereitgestellten Modells in Ihrer Anwendung verwendet werden können.

Bereitstellen eines Azure OpenAI-Modells aus Ihrem Projekt

Alternativ können Sie eine Bereitstellung initiieren, indem Sie von Ihrem Projekt im Azure KI Foundry-Portal aus starten.

  1. Wechseln Sie zu Ihrem Projekt im Azure KI Foundry-Portal.
  2. Wechseln Sie auf der linken Randleiste Ihres Projekts zu Meine Ressourcen>Modelle + Endpunkte.
  3. Wählen Sie + Modell bereitstellen>Basismodell bereitstellen aus.
  4. Wählen Sie im Filter Sammlungen die Option Azure OpenAI aus.
  5. Wählen Sie ein Modell wie gpt-4o-mini aus der Azure OpenAI-Sammlung aus.
  6. Wählen Sie Bestätigen aus, um das Bereitstellungsfenster zu starten.
  7. Geben Sie den Bereitstellungsnamen an, und ändern Sie andere Standardeinstellungen je nach Ihren Anforderungen.
  8. Klicken Sie auf Bereitstellen.
  9. Sie gelangen zur Seite mit den Bereitstellungsdetails. Wählen Sie In Playground öffnen aus.
  10. Wählen Sie Code anzeigen aus, um Codebeispiele abzurufen, die zum Verwenden des bereitgestellten Modells in Ihrer Anwendung verwendet werden können.

Rückschlüsse des Azure OpenAI-Modells

Um Rückschlüsse für das bereitgestellte Modell durchzuführen, können Sie den Playground oder Codebeispiele verwenden. Der Playground ist eine webbasierte Schnittstelle, über die Sie in Echtzeit mit dem Modell interagieren können. Sie können den Playground verwenden, um das Modell mit unterschiedlichen Eingabeaufforderungen zu testen und die Antworten des Modells anzuzeigen.

Weitere Beispiele für die Nutzung des bereitgestellten Modells in Ihrer Anwendung finden Sie in den folgenden Azure OpenAI-Schnellstarts:

Regionale Verfügbarkeits- und Kontingentbeschränkungen eines Modells

Bei Azure OpenAI-Modellen variiert das Standardkontingent für Modelle je nach Modell und Region. Bestimmte Modelle sind möglicherweise nur in einigen Regionen verfügbar. Weitere Informationen zur Verfügbarkeit und Kontingentgrenzen finden Sie unter Kontingente und Grenzwerte in Azure OpenAI Service.

Kontingent für die Bereitstellung und Ableitung eines Modells

Für Azure OpenAI-Modelle werden Verbrauchskontingente bereitgestellt und rückgeschlossen, die Ihrem Abonnement pro Region, pro Modell in Einheiten von Token-pro-Minute (TPM) zugewiesen sind. Wenn Sie sich für Azure KI Foundry registrieren, erhalten Sie das Standardkontingent für die meisten verfügbaren Modelle. Anschließend weisen Sie jeder Bereitstellung TPM zu, während sie erstellt wird, wodurch das verfügbare Kontingent für dieses Modell um den von Ihnen zugewiesenen Betrag reduziert wird. Sie können weiterhin Bereitstellungen erstellen und ihnen TPM zuweisen, bis Sie Ihr Kontingentlimit erreicht haben.

Sobald Sie ihr Kontingentlimit erreicht haben, ist die einzige Möglichkeit, neue Bereitstellungen dieses Modells zu erstellen:

Weitere Informationen zum Kontingent finden Sie unter Azure KI Foundry-Kontingent und Verwalten des Azure OpenAI Service-Kontingents.