Azure OpenAI-modellen implementeren met Azure AI Foundry
Belangrijk
Items die in dit artikel zijn gemarkeerd (preview) zijn momenteel beschikbaar als openbare preview. Deze preview wordt aangeboden zonder een service level agreement en we raden deze niet aan voor productieworkloads. Misschien worden bepaalde functies niet ondersteund of zijn de mogelijkheden ervan beperkt. Zie Aanvullende gebruiksvoorwaarden voor Microsoft Azure-previews voor meer informatie.
In dit artikel leert u hoe u Azure OpenAI-modelimplementaties maakt in de Azure AI Foundry-portal.
Azure OpenAI Service biedt een diverse set modellen met verschillende mogelijkheden en prijspunten. Wanneer u Azure OpenAI-modellen implementeert in de Azure AI Foundry-portal, kunt u de implementaties gebruiken, met behulp van een promptstroom of een ander hulpprogramma. De modelbeschikbaarheid varieert per regio. Zie Azure OpenAI Service-modellen voor meer informatie over de details van elk model.
Als u een Azure OpenAI-model in de Azure AI Foundry-speeltuin wilt wijzigen en ermee wilt werken, moet u eerst een Basis Azure OpenAI-model implementeren in uw project. Zodra het model is geïmplementeerd en beschikbaar is in uw project, kunt u het REST API-eindpunt ongewijzigd gebruiken of verder aanpassen met uw eigen gegevens en andere onderdelen (insluitingen, indexen en meer).
Vereisten
Een Azure-abonnement met een geldige betalingswijze. Gratis of proefversie van Azure-abonnementen werkt niet. Als u geen Azure-abonnement hebt, maakt u eerst een betaald Azure-account .
Een Azure OpenAI-model implementeren vanuit de modelcatalogus
Volg de onderstaande stappen om een Azure OpenAI-model te implementeren, zoals gpt-4o-mini
naar een realtime-eindpunt vanuit de azure AI Foundry Portal-modelcatalogus:
- Meld u aan bij Azure AI Foundry.
- Als u nog niet in uw project bent, selecteert u het.
- Selecteer modelcatalogus in het linkernavigatiedeelvenster.
Selecteer Azure OpenAI in het filter Verzamelingen.
Selecteer een model, zoals
gpt-4o-mini
in de Azure OpenAI-verzameling.Selecteer Implementeren om het implementatievenster te openen.
Selecteer de resource waarnaar u het model wilt implementeren. Als u geen resource hebt, kunt u er een maken.
Geef de implementatienaam op en wijzig andere standaardinstellingen, afhankelijk van uw vereisten.
Selecteer Implementeren.
U komt terecht op de pagina met implementatiedetails. Selecteer Openen in speeltuin.
Selecteer Code weergeven om codevoorbeelden te verkrijgen die kunnen worden gebruikt om het geïmplementeerde model in uw toepassing te gebruiken.
Een Azure OpenAI-model implementeren vanuit uw project
U kunt ook de implementatie initiëren door te beginnen met uw project in de Azure AI Foundry-portal.
- Ga naar uw project in de Azure AI Foundry-portal.
- Ga in de linkerzijbalk van uw project naar Mijn assets>modellen en eindpunten.
- Selecteer + Model implementeren basismodel> implementeren.
- Selecteer Azure OpenAI in het filter Verzamelingen.
- Selecteer een model, zoals
gpt-4o-mini
in de Azure OpenAI-verzameling. - Selecteer Bevestigen om het implementatievenster te openen.
- Geef de implementatienaam op en wijzig andere standaardinstellingen, afhankelijk van uw vereisten.
- Selecteer Implementeren.
- U komt terecht op de pagina met implementatiedetails. Selecteer Openen in speeltuin.
- Selecteer Code weergeven om codevoorbeelden te verkrijgen die kunnen worden gebruikt om het geïmplementeerde model in uw toepassing te gebruiken.
Het Azure OpenAI-model deductie maken
Als u deductie wilt uitvoeren op het geïmplementeerde model, kunt u de speeltuin of codevoorbeelden gebruiken. De speeltuin is een webinterface waarmee u in realtime met het model kunt werken. U kunt de speeltuin gebruiken om het model te testen met verschillende prompts en de antwoorden van het model te bekijken.
Zie de volgende Azure OpenAI-quickstarts voor meer voorbeelden van het gebruik van het geïmplementeerde model in uw toepassing:
Regionale beschikbaarheid en quotumlimieten van een model
Het standaardquotum voor Azure OpenAI-modellen varieert per model en regio. Bepaalde modellen zijn mogelijk alleen beschikbaar in sommige regio's. Zie quota en limieten voor Azure OpenAI-service voor meer informatie over beschikbaarheids- en quotumlimieten.
Quotum voor het implementeren en deducteren van een model
Voor Azure OpenAI-modellen verbruikt het implementeren en deductiequotum dat is toegewezen aan uw abonnement per regio, per model in eenheden tokens per minuut (TPM). Wanneer u zich registreert voor Azure AI Foundry, ontvangt u een standaardquotum voor de meeste beschikbare modellen. Vervolgens wijst u TPM toe aan elke implementatie terwijl deze wordt gemaakt, waardoor het beschikbare quotum voor dat model wordt verminderd met het bedrag dat u hebt toegewezen. U kunt implementaties blijven maken en deze TPM's toewijzen totdat u de quotumlimiet hebt bereikt.
Zodra u de quotumlimiet hebt bereikt, kunt u alleen nieuwe implementaties van dat model maken:
- Vraag meer quotum aan door een formulier voor quotumverhoging in te dienen.
- Pas het toegewezen quotum voor andere modelimplementaties aan om tokens vrij te maken voor nieuwe implementaties in de Azure OpenAI-portal.
Zie Azure AI Foundry-quotum en Azure OpenAI Service-quotum beheren voor meer informatie over quotum.
Gerelateerde inhoud
- Meer informatie over wat u kunt doen in Azure AI Foundry
- Antwoorden krijgen op veelgestelde vragen in het artikel veelgestelde vragen over Azure AI