Bereitstellen von Azure OpenAI-Modellen mit Azure KI Foundry
Wichtig
Die in diesem Artikel markierten Elemente (Vorschau) sind aktuell als öffentliche Vorschau verfügbar. Diese Vorschauversion wird ohne Vereinbarung zum Servicelevel bereitgestellt und sollte nicht für Produktionsworkloads verwendet werden. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Zusätzliche Nutzungsbestimmungen für Microsoft Azure-Vorschauen.
In diesem Artikel erfahren Sie, wie Sie Azure OpenAI-Modellimplementierungen im Azure KI Foundry-Portal erstellen.
Azure OpenAI Service bietet eine Vielzahl von Modellen mit unterschiedlichen Funktionen und Preispunkten. Wenn Sie Azure OpenAI-Modelle im Azure KI Foundry-Portal bereitstellen, können Sie die Bereitstellungen mithilfe von prompt flow oder eines anderen Tools nutzen. Die Modellverfügbarkeit variiert je nach Region. Weitere Informationen zu den Details der einzelnen Modelle finden Sie unter Azure OpenAI Service-Modelle.
Um ein Azure OpenAI-Modell im Azure KI Foundry-Playground zu ändern und mit diesem zu interagieren, müssen Sie zuerst ein Azure OpenAI-Basismodell für Ihr Projekt bereitstellen. Sobald das Modell in Ihrem Projekt bereitgestellt und verfügbar ist, können Sie den REST-API-Endpunkt wie vorhanden nutzen oder mit Ihren eigenen Daten und anderen Komponenten (Einbettungen, Indizes usw.) weiter anpassen.
Voraussetzungen
Ein Azure-Abonnement mit einer gültigen Zahlungsmethode. Kostenlose Versionen oder Testversionen von Azure-Abonnements funktionieren nicht. Wenn Sie noch kein Azure-Abonnement haben, erstellen Sie zunächst ein kostenpflichtiges Azure-Konto.
Bereitstellen eines Azure OpenAI-Modells aus dem Modellkatalog
Führen Sie die folgenden Schritte aus, um ein Azure OpenAI-Modell wie gpt-4o-mini
auf einem Echtzeitendpunkt aus dem Modellkatalog im Azure KI Foundry-Portal bereitzustellen:
- Melden Sie sich bei Azure KI Foundry an.
- Wenn Sie sich noch nicht in Ihrem Projekt befinden, wählen Sie es aus.
- Wählen Sie im linken Navigationsbereich den Modellkatalog aus.
Wählen Sie im Filter Sammlungen die Option Azure OpenAI aus.
Wählen Sie ein Modell wie
gpt-4o-mini
aus der Azure OpenAI-Sammlung aus.Wählen Sie Bereitstellen aus, um das Bereitstellungsfenster zu starten.
Wählen Sie die Ressource aus, für die Sie das Modell bereitstellen möchten. Wenn Sie nicht über eine Ressource verfügen, können Sie eine erstellen.
Geben Sie den Bereitstellungsnamen an, und ändern Sie andere Standardeinstellungen je nach Ihren Anforderungen.
Klicken Sie auf Bereitstellen.
Sie gelangen zur Seite mit den Bereitstellungsdetails. Wählen Sie In Playground öffnen aus.
Wählen Sie Code anzeigen aus, um Codebeispiele abzurufen, die zum Verwenden des bereitgestellten Modells in Ihrer Anwendung verwendet werden können.
Bereitstellen eines Azure OpenAI-Modells aus Ihrem Projekt
Alternativ können Sie eine Bereitstellung initiieren, indem Sie von Ihrem Projekt im Azure KI Foundry-Portal aus starten.
- Wechseln Sie zu Ihrem Projekt im Azure KI Foundry-Portal.
- Wechseln Sie auf der linken Randleiste Ihres Projekts zu Meine Ressourcen>Modelle + Endpunkte.
- Wählen Sie + Modell bereitstellen>Basismodell bereitstellen aus.
- Wählen Sie im Filter Sammlungen die Option Azure OpenAI aus.
- Wählen Sie ein Modell wie
gpt-4o-mini
aus der Azure OpenAI-Sammlung aus. - Wählen Sie Bestätigen aus, um das Bereitstellungsfenster zu starten.
- Geben Sie den Bereitstellungsnamen an, und ändern Sie andere Standardeinstellungen je nach Ihren Anforderungen.
- Klicken Sie auf Bereitstellen.
- Sie gelangen zur Seite mit den Bereitstellungsdetails. Wählen Sie In Playground öffnen aus.
- Wählen Sie Code anzeigen aus, um Codebeispiele abzurufen, die zum Verwenden des bereitgestellten Modells in Ihrer Anwendung verwendet werden können.
Rückschlüsse des Azure OpenAI-Modells
Um Rückschlüsse für das bereitgestellte Modell durchzuführen, können Sie den Playground oder Codebeispiele verwenden. Der Playground ist eine webbasierte Schnittstelle, über die Sie in Echtzeit mit dem Modell interagieren können. Sie können den Playground verwenden, um das Modell mit unterschiedlichen Eingabeaufforderungen zu testen und die Antworten des Modells anzuzeigen.
Weitere Beispiele für die Nutzung des bereitgestellten Modells in Ihrer Anwendung finden Sie in den folgenden Azure OpenAI-Schnellstarts:
Regionale Verfügbarkeits- und Kontingentbeschränkungen eines Modells
Bei Azure OpenAI-Modellen variiert das Standardkontingent für Modelle je nach Modell und Region. Bestimmte Modelle sind möglicherweise nur in einigen Regionen verfügbar. Weitere Informationen zur Verfügbarkeit und Kontingentgrenzen finden Sie unter Kontingente und Grenzwerte in Azure OpenAI Service.
Kontingent für die Bereitstellung und Ableitung eines Modells
Für Azure OpenAI-Modelle werden Verbrauchskontingente bereitgestellt und rückgeschlossen, die Ihrem Abonnement pro Region, pro Modell in Einheiten von Token-pro-Minute (TPM) zugewiesen sind. Wenn Sie sich für Azure KI Foundry registrieren, erhalten Sie das Standardkontingent für die meisten verfügbaren Modelle. Anschließend weisen Sie jeder Bereitstellung TPM zu, während sie erstellt wird, wodurch das verfügbare Kontingent für dieses Modell um den von Ihnen zugewiesenen Betrag reduziert wird. Sie können weiterhin Bereitstellungen erstellen und ihnen TPM zuweisen, bis Sie Ihr Kontingentlimit erreicht haben.
Sobald Sie ihr Kontingentlimit erreicht haben, ist die einzige Möglichkeit, neue Bereitstellungen dieses Modells zu erstellen:
- Mehr Kontingent anfordern, indem Sie ein Formular zur Erhöhung des Kontingents übermitteln.
- Das zugewiesene Kontingent für andere Modellbereitstellungen anpassen, um Token für neue Bereitstellungen im Azure OpenAI-Portal freizugeben.
Weitere Informationen zum Kontingent finden Sie unter Azure KI Foundry-Kontingent und Verwalten des Azure OpenAI Service-Kontingents.
Zugehöriger Inhalt
- Erfahren Sie mehr über die Möglichkeiten, die Ihnen Azure KI Foundry bietet.
- Erhalten Sie Antworten auf häufig gestellte Fragen im Artikel zu häufig gestellten Fragen zu Azure KI