Naslaginformatie over REST API voor Azure OpenAI-service
Dit artikel bevat informatie over de REST API-eindpunten voor deductie voor Azure OpenAI.
API-specificaties
Het beheren en communiceren met Azure OpenAI-modellen en -resources is verdeeld over drie primaire API-oppervlakken:
- Besturingsvlak
- Gegevensvlak - ontwerpen
- Gegevensvlak - deductie
Elke API-surface/-specificatie bevat een andere set Azure OpenAI-mogelijkheden. Elke API heeft een eigen unieke set preview-versies en stabiele/algemeen beschikbare API-releases. Preview-versies volgen momenteel meestal een maandelijkse frequentie.
API | Nieuwste preview-versie | Nieuwste GA-release | Specificaties | Beschrijving |
---|---|---|---|---|
Besturingsvlak | 2024-06-01-preview |
2024-10-01 |
Specificatiebestanden | Azure OpenAI deelt een gemeenschappelijk besturingsvlak met alle andere Azure AI Services. De besturingsvlak-API wordt gebruikt voor zaken als het maken van Azure OpenAI-resources, modelimplementatie en andere resourcebeheertaken op een hoger niveau. Het besturingsvlak bepaalt ook wat er mogelijk is met mogelijkheden zoals Azure Resource Manager, Bicep, Terraform en Azure CLI. |
Gegevensvlak - ontwerpen | 2024-10-01-preview |
2024-10-21 |
Specificatiebestanden | De api voor het ontwerpen van gegevensvlakken bepaalt het afstemmen, uploaden van bestanden, opnametaken, batch- en bepaalde query's op modelniveau |
Gegevensvlak - deductie | 2024-10-01-preview |
2024-10-21 |
Specificatiebestanden | De gegevensvlakdeductie-API biedt de deductiemogelijkheden/eindpunten voor functies zoals voltooiingen, chatvoltooiingen, insluitingen, spraak/fluisteren, op uw gegevens, Dall-e, assistenten, enzovoort. |
Verificatie
Azure OpenAI biedt twee methoden voor verificatie. U kunt API-sleutels of Microsoft Entra-id gebruiken.
API-sleutelverificatie: voor dit type verificatie moeten alle API-aanvragen de API-sleutel in de
api-key
HTTP-header bevatten. De quickstart bevat richtlijnen voor het maken van aanroepen met dit type verificatie.Microsoft Entra ID-verificatie: u kunt een API-aanroep verifiëren met behulp van een Microsoft Entra-token. Verificatietokens worden als header
Authorization
opgenomen in een aanvraag. Het opgegeven token moet worden voorafgegaan doorBearer
bijvoorbeeldBearer YOUR_AUTH_TOKEN
. U kunt onze handleiding voor verificatie met Microsoft Entra ID lezen.
REST API-versiebeheer
De service-API's hebben versiebeheer met behulp van de api-version
queryparameter. Alle versies volgen de datumstructuur JJJJ-MM-DD. Voorbeeld:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Deductie van het gegevensvlak
De rest van het artikel bevat informatie over de nieuwste GA-release van de Azure OpenAI-gegevensvlakdeductiespecificatie, 2024-10-21
.
Als u op zoek bent naar documentatie over de nieuwste preview-API-release, raadpleegt u de nieuwste preview-API voor deductie-API voor gegevensvlakken
Voltooiingen
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Hiermee maakt u een voltooiing voor de opgegeven prompt, parameters en het gekozen model.
URI-parameters
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | Implementatie-id van het model dat is geïmplementeerd. |
api-versie | query | Ja | tekenreeks | API-versie |
Aanvraagkoptekst
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Aanvraagbody
Inhoudstype: toepassing/json
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
vraag | tekenreeks of matrix | De prompt(s) voor het genereren van voltooiingen voor, gecodeerd als een tekenreeks, matrix van tekenreeksen, matrix van tokens of matrix van tokenmatrices. <|endoftext|> is het documentscheidingsteken dat het model tijdens de training ziet, dus als er geen prompt is opgegeven, wordt het model gegenereerd alsof het vanaf het begin van een nieuw document wordt gegenereerd. |
Ja | |
best_of | geheel getal | Genereert best_of voltooiingen aan de serverzijde en retourneert de 'beste' (de waarde met de hoogste logboekkans per token). Resultaten kunnen niet worden gestreamd.Wanneer gebruikt met n , best_of bepaalt u het aantal voltooiingen van de kandidaat en n geeft u op hoeveel te retourneren â€" best_of groter moet zijn dan n .Opmerking: Omdat deze parameter veel voltooiingen genereert, kan deze snel uw tokenquotum gebruiken. Gebruik zorgvuldig en zorg ervoor dat u redelijke instellingen max_tokens voor en stop . |
Nee | 1 |
echo | boolean | Echo terug van de prompt naast de voltooiing |
Nee | Onwaar |
frequency_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. |
Nee | 0 |
logit_bias | object | Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een JSON-object waarmee tokens (opgegeven door de token-id in de GPT-tokenizer) worden toegewezen aan een bijbehorende bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. U kunt bijvoorbeeld doorgeven {"50256": -100} om te voorkomen dat het <token |endoftext|> wordt gegenereerd. |
Nee | Geen |
logprobs | geheel getal | Neem de logboekkans op de logprobs meest waarschijnlijke uitvoertokens op, evenals de gekozen tokens. Als dit bijvoorbeeld logprobs 5 is, retourneert de API een lijst met de vijf meest waarschijnlijke tokens. De API retourneert altijd het logprob voorbeeldtoken, dus er kunnen maximaal logprobs+1 elementen in het antwoord zijn.De maximumwaarde voor logprobs is 5. |
Nee | Geen |
max_tokens | geheel getal | Het maximum aantal tokens dat kan worden gegenereerd in de voltooiing. Het tokenaantal van uw prompt plus max_tokens kan de contextlengte van het model niet overschrijden. |
Nee | 16 |
n | geheel getal | Hoeveel voltooiingen moeten worden gegenereerd voor elke prompt. Opmerking: Omdat deze parameter veel voltooiingen genereert, kan deze snel uw tokenquotum gebruiken. Gebruik zorgvuldig en zorg ervoor dat u redelijke instellingen max_tokens voor en stop . |
Nee | 1 |
presence_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. |
Nee | 0 |
seed | geheel getal | Indien opgegeven, zal ons systeem een best inspanning leveren om de steekproef deterministisch uit te voeren, zodat herhaalde aanvragen met hetzelfde seed en parameters hetzelfde resultaat moeten retourneren.Determinisme is niet gegarandeerd en u moet verwijzen naar de system_fingerprint antwoordparameter om wijzigingen in de back-end te controleren. |
Nee | |
stoppen | tekenreeks of matrix | Maximaal vier reeksen waarin de API stopt met het genereren van verdere tokens. De geretourneerde tekst bevat de stopvolgorde niet. |
Nee | |
stroom | boolean | Of gedeeltelijke voortgang moet worden gestreamd. Als deze optie is ingesteld, worden tokens verzonden als gebeurtenissen die alleen door de server worden verzonden zodra ze beschikbaar komen, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
Nee | Onwaar |
achtervoegsel | tekenreeks | Het achtervoegsel dat na een voltooiing van ingevoegde tekst komt. Deze parameter wordt alleen ondersteund voor gpt-3.5-turbo-instruct . |
Nee | Geen |
temperatuur | Nummer | Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen. |
Nee | 1 |
top_p | Nummer | Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen. |
Nee | 1 |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. |
Nee |
Antwoorden
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | createCompletionResponse | Vertegenwoordigt een voltooiingsantwoord van de API. Opmerking: zowel de gestreamde als niet-gestreamde antwoordobjecten delen dezelfde vorm (in tegenstelling tot het chateindpunt). |
Statuscode: standaard
Beschrijving: Service niet beschikbaar
Content-Type | Type | Beschrijving |
---|---|---|
application/json | errorResponse |
Voorbeelden
Opmerking
Hiermee maakt u een voltooiing voor de opgegeven prompt, parameters en het gekozen model.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Antwoorden: Statuscode: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Insluitingen
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Haal een vectorweergave op van een bepaalde invoer die eenvoudig kan worden gebruikt door machine learning-modellen en -algoritmen.
URI-parameters
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | |
api-versie | query | Ja | tekenreeks | API-versie |
Aanvraagkoptekst
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Aanvraagbody
Inhoudstype: toepassing/json
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
input | tekenreeks of matrix | Invoertekst voor insluiten, gecodeerd als een tekenreeks of matrix met tokens. Als u meerdere invoer in één aanvraag wilt insluiten, geeft u een matrix van tekenreeksen of matrix met tokenmatrices door. De invoer mag niet groter zijn dan de maximuminvoertokens voor het model (8.192 tokens voor text-embedding-ada-002 ), mag geen lege tekenreeks zijn en een matrix moet 2048 dimensies of minder zijn. |
Ja | |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. | Nee | |
input_type | tekenreeks | invoertype van zoekactie voor insluiten om te gebruiken | Nee | |
encoding_format | tekenreeks | De indeling waarin de insluitingen moeten worden geretourneerd. Kan een van float beide zijn of base64 . Standaard ingesteld op float . |
Nee | |
dimensions | geheel getal | Het aantal dimensies dat de resulterende uitvoer-insluitingen moeten hebben. Alleen ondersteund in text-embedding-3 en latere modellen. |
Nee |
Antwoorden
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
object | tekenreeks | Ja | ||
model | tekenreeks | Ja | ||
gegevens | matrix | Ja | ||
gebruikt | object | Ja |
Eigenschappen voor gebruik
prompt_tokens
Name | Type | Description | Standaard |
---|---|---|---|
prompt_tokens | geheel getal |
total_tokens
Name | Type | Description | Standaard |
---|---|---|---|
total_tokens | geheel getal |
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | object |
Voorbeelden
Opmerking
Retourneer de insluitingen voor een bepaalde prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Antwoorden: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chatvoltooiingen
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Hiermee maakt u een voltooiing voor het chatbericht
URI-parameters
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | Implementatie-id van het model dat is geïmplementeerd. |
api-versie | query | Ja | tekenreeks | API-versie |
Aanvraagkoptekst
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Aanvraagbody
Inhoudstype: toepassing/json
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
temperatuur | Nummer | Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen. |
Nee | 1 |
top_p | Nummer | Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen. |
Nee | 1 |
stroom | boolean | Als dit is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als door de server verzonden gegevens wanneer ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
Nee | Onwaar |
stoppen | tekenreeks of matrix | Maximaal vier reeksen waarin de API stopt met het genereren van verdere tokens. |
Nee | |
max_tokens | geheel getal | Het maximum aantal tokens dat kan worden gegenereerd in de voltooiing van de chat. De totale lengte van invoertokens en gegenereerde tokens wordt beperkt door de contextlengte van het model. |
Nee | |
max_completion_tokens | geheel getal | Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. | Nee | |
presence_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. |
Nee | 0 |
frequency_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. |
Nee | 0 |
logit_bias | object | Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een JSON-object waarmee tokens (opgegeven door de token-id in de tokenizer) worden toegewezen aan een gekoppelde bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. |
Nee | Geen |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. |
Nee | |
messages | matrix | Een lijst met berichten die tot nu toe bestaan uit het gesprek. | Ja | |
data_sources | matrix | De configuratievermeldingen voor Azure OpenAI-chatextensies die deze gebruiken. Deze aanvullende specificatie is alleen compatibel met Azure OpenAI. |
Nee | |
logprobs | boolean | Of u nu logboekkansen van de uitvoertokens wilt retourneren of niet. Indien waar, retourneert u de logboekkans van elk uitvoertoken dat wordt geretourneerd in de van content message . |
Nee | Onwaar |
top_logprobs | geheel getal | Een geheel getal tussen 0 en 20 dat het aantal waarschijnlijke tokens aangeeft dat op elke tokenpositie moet worden geretourneerd, elk met een gekoppelde logboekkans. logprobs moet worden ingesteld op true of deze parameter wordt gebruikt. |
Nee | |
n | geheel getal | Hoeveel opties voor het voltooien van chats voor elk invoerbericht moeten worden gegenereerd. Houd er rekening mee dat er kosten in rekening worden gebracht op basis van het aantal gegenereerde tokens voor alle opties. 1 Houd n rekening met het minimaliseren van de kosten. |
Nee | 1 |
parallel_tool_calls | ParallelToolCalls | Hiermee wordt aangegeven of parallelle functie aanroepen moet worden ingeschakeld tijdens het gebruik van het hulpprogramma. | Nee | Waar |
response_format | ResponseFormatText of ResponseFormatJsonObject of ResponseFormatJsonSchema | Een object dat de indeling aangeeft die het model moet uitvoeren. Compatibel met GPT-4o, GPT-4o mini, GPT-4 Turbo en alle GPT-3.5 Turbo modellen nieuwer dan gpt-3.5-turbo-1106 .Instelling voor { "type": "json_schema", "json_schema": {...} } het inschakelen van gestructureerde uitvoer die garandeert dat het model overeenkomt met het opgegeven JSON-schema.Instelling voor { "type": "json_object" } het inschakelen van de JSON-modus, wat garandeert dat het bericht dat het model genereert geldige JSON is.Belangrijk: wanneer u de JSON-modus gebruikt, moet u het model ook instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een onverwerkte witruimtestroom genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopende en schijnbaar 'vastgelopen' aanvraag. Houd er ook rekening mee dat de inhoud van het bericht gedeeltelijk kan worden afgekapt als finish_reason="length" , wat aangeeft dat de generatie is overschreden max_tokens of het gesprek de maximale contextlengte heeft overschreden. |
Nee | |
seed | geheel getal | Deze functie bevindt zich in de bètaversie. Indien opgegeven, zal ons systeem een best inspanning leveren om de steekproef deterministisch uit te voeren, zodat herhaalde aanvragen met hetzelfde seed en parameters hetzelfde resultaat moeten retourneren.Determinisme is niet gegarandeerd en u moet verwijzen naar de system_fingerprint antwoordparameter om wijzigingen in de back-end te controleren. |
Nee | |
tools | matrix | Een lijst met hulpprogramma's die het model kan aanroepen. Op dit moment worden alleen functies ondersteund als hulpprogramma. Gebruik dit om een lijst met functies op te geven waarvoor het model JSON-invoer kan genereren. Maximaal 128 functies worden ondersteund. |
Nee | |
tool_choice | chatCompletionToolChoiceOption | Hiermee bepaalt u welke (indien van toepassing) hulpprogramma's worden aangeroepen door het model. none betekent dat het model geen hulpprogramma aanroept en in plaats daarvan een bericht genereert. auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer hulpprogramma's. required betekent dat het model een of meer hulpprogramma's moet aanroepen. Het opgeven van een bepaald hulpprogramma via {"type": "function", "function": {"name": "my_function"}} dwingt het model om dat hulpprogramma aan te roepen. none is de standaardinstelling wanneer er geen hulpprogramma's aanwezig zijn. auto is de standaardinstelling als er hulpprogramma's aanwezig zijn. |
Nee | |
function_call | tekenreeks of chatCompletionFunctionCallOption | Afgeschaft ten gunste van tool_choice .Hiermee bepaalt u welke functie (indien aanwezig) wordt aangeroepen door het model. none betekent dat het model geen functie aanroept en in plaats daarvan een bericht genereert.auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een functie.Als u een bepaalde functie opgeeft via dwingt {"name": "my_function"} u het model om die functie aan te roepen.none is de standaardinstelling wanneer er geen functies aanwezig zijn. auto is de standaardinstelling als er functies aanwezig zijn. |
Nee | |
functions | matrix | Afgeschaft ten gunste van tools .Een lijst met functies waarvoor het model JSON-invoer kan genereren. |
Nee |
Antwoorden
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | createChatCompletionResponse of createChatCompletionStreamResponse |
Statuscode: standaard
Beschrijving: Service niet beschikbaar
Content-Type | Type | Beschrijving |
---|---|---|
application/json | errorResponse |
Voorbeelden
Opmerking
Hiermee maakt u een voltooiing voor de opgegeven prompt, parameters en het gekozen model.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Antwoorden: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Opmerking
Hiermee maakt u een voltooiing op basis van Azure Search-gegevens en door het systeem toegewezen beheerde identiteit.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Antwoorden: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Opmerking
Hiermee maakt u een voltooiing op basis van Azure Search-vectorgegevens, vorige assistentbericht en door de gebruiker toegewezen beheerde identiteit.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antwoorden: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Opmerking
Hiermee maakt u een voltooiing voor de opgegeven Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antwoorden: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcripties - Maken
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Hiermee wordt audio getranscribeerd in de invoertaal.
URI-parameters
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | Implementatie-id van het fluistermodel. |
api-versie | query | Ja | tekenreeks | API-versie |
Aanvraagkoptekst
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Aanvraagbody
Inhoudstype: multipart/form-data
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
bestand | tekenreeks | Het audiobestandobject dat moet worden getranscribeerd. | Ja | |
vraag | tekenreeks | Een optionele tekst om de stijl van het model te begeleiden of door te gaan met een vorig audiosegment. De prompt moet overeenkomen met de audiotaal. | Nee | |
response_format | audioResponseFormat | Hiermee definieert u de indeling van de uitvoer. | Nee | |
temperatuur | Nummer | De steekproeftemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Als dit is ingesteld op 0, gebruikt het model logboekkans om de temperatuur automatisch te verhogen totdat bepaalde drempelwaarden worden bereikt. | Nee | 0 |
taal | tekenreeks | De taal van de invoeraudio. Het leveren van de invoertaal in ISO-639-1-indeling verbetert de nauwkeurigheid en latentie. | Nee |
Antwoorden
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | audioResponse of audioVerboseResponse | |
text/plain | tekenreeks | Getranscribeerde tekst in de uitvoerindeling (toen response_format een tekst, vtt of srt was). |
Voorbeelden
Opmerking
Hiermee haalt u getranscribeerde tekst en bijbehorende metagegevens op uit de verstrekte gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Antwoorden: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Opmerking
Hiermee haalt u getranscribeerde tekst en bijbehorende metagegevens op uit de verstrekte gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antwoorden: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Vertalingen - Maken
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Hiermee wordt invoeraudio getranscribeerd en omgezet in Engelse tekst.
URI-parameters
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | Implementatie-id van het fluistermodel dat is geïmplementeerd. |
api-versie | query | Ja | tekenreeks | API-versie |
Aanvraagkoptekst
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Aanvraagbody
Inhoudstype: multipart/form-data
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
bestand | tekenreeks | Het audiobestand dat moet worden vertaald. | Ja | |
vraag | tekenreeks | Een optionele tekst om de stijl van het model te begeleiden of door te gaan met een vorig audiosegment. De prompt moet in het Engels zijn. | Nee | |
response_format | audioResponseFormat | Hiermee definieert u de indeling van de uitvoer. | Nee | |
temperatuur | Nummer | De steekproeftemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Als dit is ingesteld op 0, gebruikt het model logboekkans om de temperatuur automatisch te verhogen totdat bepaalde drempelwaarden worden bereikt. | Nee | 0 |
Antwoorden
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | audioResponse of audioVerboseResponse | |
text/plain | tekenreeks | Getranscribeerde tekst in de uitvoerindeling (toen response_format een tekst, vtt of srt was). |
Voorbeelden
Opmerking
Hiermee haalt u getranscribeerde engelse tekst en bijbehorende metagegevens op van opgegeven gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antwoorden: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Opmerking
Hiermee haalt u getranscribeerde engelse tekst en bijbehorende metagegevens op van opgegeven gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antwoorden: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Genereren van afbeeldingen
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Hiermee wordt een batch afbeeldingen gegenereerd op basis van een tekstbijschrift voor een bepaalde dall-e-modelimplementatie
URI-parameters
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | Implementatie-id van het dall-e-model dat is geïmplementeerd. |
api-versie | query | Ja | tekenreeks | API-versie |
Aanvraagkoptekst
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Aanvraagbody
Inhoudstype: toepassing/json
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
vraag | tekenreeks | Een tekstbeschrijving van de gewenste afbeelding(en). De maximale lengte is 4000 tekens. | Ja | |
n | geheel getal | Het aantal afbeeldingen dat moet worden gegenereerd. | Nee | 1 |
size | imageSize | De grootte van de gegenereerde afbeeldingen. | Nee | 1024x1024 |
response_format | imagesResponseFormat | De indeling waarin de gegenereerde afbeeldingen worden geretourneerd. | Nee | URL |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. | Nee | |
kwaliteit | imageQuality | De kwaliteit van de afbeelding die wordt gegenereerd. | Nee | standard |
stijl | imageStyle | De stijl van de gegenereerde afbeeldingen. | Nee | levendig |
Antwoorden
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | generateImagesResponse |
Statuscode: standaard
Beschrijving: Er is een fout opgetreden.
Content-Type | Type | Beschrijving |
---|---|---|
application/json | dalleErrorResponse |
Voorbeelden
Opmerking
Hiermee maakt u installatiekopieën op basis van een prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Antwoorden: Statuscode: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Onderdelen
errorResponse
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
error | fout | Nee |
errorBase
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
code | string | Nee | ||
bericht | tekenreeks | Nee |
error
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
param | tekenreeks | Nee | ||
type | tekenreeks | Nee | ||
inner_error | innerError | Interne fout met aanvullende details. | Nee |
innerError
Interne fout met aanvullende details.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
code | innerErrorCode | Foutcodes voor het binnenste foutobject. | Nee | |
content_filter_results | contentFilterPromptResults | Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id. | Nee |
innerErrorCode
Foutcodes voor het binnenste foutobject.
Beschrijving: Foutcodes voor het binnenste foutobject.
Type: tekenreeks
Standaard:
Opsommingsnaam: InnerErrorCode
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
ResponsibleAIPolicyViolation | De prompt heeft een van meer regels voor inhoudsfilters geschonden. |
dalleErrorResponse
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
error | dalleError | Nee |
dalleError
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
param | tekenreeks | Nee | ||
type | tekenreeks | Nee | ||
inner_error | dalleInnerError | Interne fout met aanvullende details. | Nee |
dalleInnerError
Interne fout met aanvullende details.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
code | innerErrorCode | Foutcodes voor het binnenste foutobject. | Nee | |
content_filter_results | dalleFilterResults | Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id. | Nee | |
revised_prompt | tekenreeks | De prompt die is gebruikt voor het genereren van de installatiekopieën, als er een revisie op de prompt is uitgevoerd. | Nee |
contentFilterResultBase
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
Gefilterde | boolean | Ja |
contentFilterSeverityResult
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
Gefilterde | boolean | Ja | ||
ernst | tekenreeks | Nee |
contentFilterDetectedResult
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
Gefilterde | boolean | Ja | ||
Gedetecteerd | boolean | Nee |
contentFilterDetectedWithCitationResult
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
citaat | object | Nee |
Eigenschappen voor bronvermelding
URL
Name | Type | Description | Standaard |
---|---|---|---|
URL | tekenreeks |
licentie
Name | Type | Description | Standaard |
---|---|---|---|
licentie | tekenreeks |
contentFilterResultsBase
Informatie over de resultaten van het filteren van inhoud.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
seksueel | contentFilterSeverityResult | Nee | ||
geweld | contentFilterSeverityResult | Nee | ||
haten | contentFilterSeverityResult | Nee | ||
self_harm | contentFilterSeverityResult | Nee | ||
Godslastering | contentFilterDetectedResult | Nee | ||
error | errorBase | Nee |
contentFilterPromptResults
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
seksueel | contentFilterSeverityResult | Nee | ||
geweld | contentFilterSeverityResult | Nee | ||
haten | contentFilterSeverityResult | Nee | ||
self_harm | contentFilterSeverityResult | Nee | ||
Godslastering | contentFilterDetectedResult | Nee | ||
error | errorBase | Nee | ||
Jailbreak | contentFilterDetectedResult | Nee |
contentFilterChoiceResults
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over tekst van derden en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
seksueel | contentFilterSeverityResult | Nee | ||
geweld | contentFilterSeverityResult | Nee | ||
haten | contentFilterSeverityResult | Nee | ||
self_harm | contentFilterSeverityResult | Nee | ||
Godslastering | contentFilterDetectedResult | Nee | ||
error | errorBase | Nee | ||
protected_material_text | contentFilterDetectedResult | Nee | ||
protected_material_code | contentFilterDetectedWithCitationResult | Nee |
promptFilterResult
Resultaten van het filteren van inhoud voor één prompt in de aanvraag.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
prompt_index | geheel getal | Nee | ||
content_filter_results | contentFilterPromptResults | Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id. | Nee |
promptFilterResults
Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen.
Er zijn geen eigenschappen gedefinieerd voor dit onderdeel.
dalleContentFilterResults
Informatie over de resultaten van het filteren van inhoud.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
seksueel | contentFilterSeverityResult | Nee | ||
geweld | contentFilterSeverityResult | Nee | ||
haten | contentFilterSeverityResult | Nee | ||
self_harm | contentFilterSeverityResult | Nee |
dalleFilterResults
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
seksueel | contentFilterSeverityResult | Nee | ||
geweld | contentFilterSeverityResult | Nee | ||
haten | contentFilterSeverityResult | Nee | ||
self_harm | contentFilterSeverityResult | Nee | ||
Godslastering | contentFilterDetectedResult | Nee | ||
Jailbreak | contentFilterDetectedResult | Nee |
chatCompletionsRequestCommon
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
temperatuur | Nummer | Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen. |
Nee | 1 |
top_p | Nummer | Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen. |
Nee | 1 |
stroom | boolean | Als dit is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als door de server verzonden gegevens wanneer ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
Nee | Onwaar |
stoppen | tekenreeks of matrix | Maximaal vier reeksen waarin de API stopt met het genereren van verdere tokens. | Nee | |
max_tokens | geheel getal | Het maximum aantal tokens dat is toegestaan voor het gegenereerde antwoord. Standaard is het aantal tokens dat het model kan retourneren (4096 - prompttokens). Deze waarde is nu afgeschaft ten gunste van max_completion_tokens en is niet compatibel met o1-seriemodellen. |
Nee | 4096 |
max_completion_tokens | geheel getal | Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. | Nee | |
presence_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. | Nee | 0 |
frequency_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. | Nee | 0 |
logit_bias | object | Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een json-object waarmee tokens (opgegeven door de token-id in de tokenizer) worden toegewezen aan een gekoppelde bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. | Nee | |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, waarmee Azure OpenAI misbruik kan bewaken en detecteren. | Nee |
createCompletionRequest
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
vraag | tekenreeks of matrix | De prompt(s) voor het genereren van voltooiingen voor, gecodeerd als een tekenreeks, matrix van tekenreeksen, matrix van tokens of matrix van tokenmatrices. <|endoftext|> is het documentscheidingsteken dat het model tijdens de training ziet, dus als er geen prompt is opgegeven, wordt het model gegenereerd alsof het vanaf het begin van een nieuw document wordt gegenereerd. |
Ja | |
best_of | geheel getal | Genereert best_of voltooiingen aan de serverzijde en retourneert de 'beste' (de waarde met de hoogste logboekkans per token). Resultaten kunnen niet worden gestreamd.Wanneer gebruikt met n , best_of bepaalt u het aantal voltooiingen van de kandidaat en n geeft u op hoeveel te retourneren â€" best_of groter moet zijn dan n .Opmerking: Omdat deze parameter veel voltooiingen genereert, kan deze snel uw tokenquotum gebruiken. Gebruik zorgvuldig en zorg ervoor dat u redelijke instellingen max_tokens voor en stop . |
Nee | 1 |
echo | boolean | Echo terug van de prompt naast de voltooiing |
Nee | Onwaar |
frequency_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. |
Nee | 0 |
logit_bias | object | Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een JSON-object waarmee tokens (opgegeven door de token-id in de GPT-tokenizer) worden toegewezen aan een bijbehorende bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. U kunt bijvoorbeeld doorgeven {"50256": -100} om te voorkomen dat het <token |endoftext|> wordt gegenereerd. |
Nee | Geen |
logprobs | geheel getal | Neem de logboekkans op de logprobs meest waarschijnlijke uitvoertokens op, evenals de gekozen tokens. Als dit bijvoorbeeld logprobs 5 is, retourneert de API een lijst met de vijf meest waarschijnlijke tokens. De API retourneert altijd het logprob voorbeeldtoken, dus er kunnen maximaal logprobs+1 elementen in het antwoord zijn.De maximumwaarde voor logprobs is 5. |
Nee | Geen |
max_tokens | geheel getal | Het maximum aantal tokens dat kan worden gegenereerd in de voltooiing. Het tokenaantal van uw prompt plus max_tokens kan de contextlengte van het model niet overschrijden. |
Nee | 16 |
n | geheel getal | Hoeveel voltooiingen moeten worden gegenereerd voor elke prompt. Opmerking: Omdat deze parameter veel voltooiingen genereert, kan deze snel uw tokenquotum gebruiken. Gebruik zorgvuldig en zorg ervoor dat u redelijke instellingen max_tokens voor en stop . |
Nee | 1 |
presence_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. |
Nee | 0 |
seed | geheel getal | Indien opgegeven, zal ons systeem een best inspanning leveren om de steekproef deterministisch uit te voeren, zodat herhaalde aanvragen met hetzelfde seed en parameters hetzelfde resultaat moeten retourneren.Determinisme is niet gegarandeerd en u moet verwijzen naar de system_fingerprint antwoordparameter om wijzigingen in de back-end te controleren. |
Nee | |
stoppen | tekenreeks of matrix | Maximaal vier reeksen waarin de API stopt met het genereren van verdere tokens. De geretourneerde tekst bevat de stopvolgorde niet. |
Nee | |
stroom | boolean | Of gedeeltelijke voortgang moet worden gestreamd. Als deze optie is ingesteld, worden tokens verzonden als gebeurtenissen die alleen door de server worden verzonden zodra ze beschikbaar komen, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
Nee | Onwaar |
achtervoegsel | tekenreeks | Het achtervoegsel dat na een voltooiing van ingevoegde tekst komt. Deze parameter wordt alleen ondersteund voor gpt-3.5-turbo-instruct . |
Nee | Geen |
temperatuur | Nummer | Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen. |
Nee | 1 |
top_p | Nummer | Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen. |
Nee | 1 |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. |
Nee |
createCompletionResponse
Vertegenwoordigt een voltooiingsantwoord van de API. Opmerking: zowel de gestreamde als niet-gestreamde antwoordobjecten delen dezelfde vorm (in tegenstelling tot het chateindpunt).
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
id | tekenreeks | Een unieke id voor de voltooiing. | Ja | |
Keuzes | matrix | De lijst met voltooiingskeuzen die het model heeft gegenereerd voor de invoerprompt. | Ja | |
aangemaakt | geheel getal | De Unix-tijdstempel (in seconden) van het moment waarop de voltooiing is gemaakt. | Ja | |
model | tekenreeks | Het model dat wordt gebruikt voor voltooiing. | Ja | |
prompt_filter_results | promptFilterResults | Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen. | Nee | |
system_fingerprint | tekenreeks | Deze vingerafdruk vertegenwoordigt de back-endconfiguratie waarmee het model wordt uitgevoerd. Kan worden gebruikt in combinatie met de seed aanvraagparameter om te begrijpen wanneer er back-endwijzigingen zijn aangebracht die van invloed kunnen zijn op determinisme. |
Nee | |
object | enum | Het objecttype, dat altijd 'text_completion' is Mogelijke waarden: text_completion |
Ja | |
gebruikt | completionUsage | Gebruiksstatistieken voor de voltooiingsaanvraag. | Nee |
createChatCompletionRequest
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
temperatuur | Nummer | Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen. |
Nee | 1 |
top_p | Nummer | Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen. |
Nee | 1 |
stroom | boolean | Als dit is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als door de server verzonden gegevens wanneer ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
Nee | Onwaar |
stoppen | tekenreeks of matrix | Maximaal vier reeksen waarin de API stopt met het genereren van verdere tokens. |
Nee | |
max_tokens | geheel getal | Het maximum aantal tokens dat kan worden gegenereerd in de voltooiing van de chat. De totale lengte van invoertokens en gegenereerde tokens wordt beperkt door de contextlengte van het model. |
Nee | |
max_completion_tokens | geheel getal | Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. | Nee | |
presence_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. |
Nee | 0 |
frequency_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. |
Nee | 0 |
logit_bias | object | Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een JSON-object waarmee tokens (opgegeven door de token-id in de tokenizer) worden toegewezen aan een gekoppelde bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. |
Nee | Geen |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. |
Nee | |
messages | matrix | Een lijst met berichten die tot nu toe bestaan uit het gesprek. | Ja | |
data_sources | matrix | De configuratievermeldingen voor Azure OpenAI-chatextensies die deze gebruiken. Deze aanvullende specificatie is alleen compatibel met Azure OpenAI. |
Nee | |
logprobs | boolean | Of u nu logboekkansen van de uitvoertokens wilt retourneren of niet. Indien waar, retourneert u de logboekkans van elk uitvoertoken dat wordt geretourneerd in de van content message . |
Nee | Onwaar |
top_logprobs | geheel getal | Een geheel getal tussen 0 en 20 dat het aantal waarschijnlijke tokens aangeeft dat op elke tokenpositie moet worden geretourneerd, elk met een gekoppelde logboekkans. logprobs moet worden ingesteld op true of deze parameter wordt gebruikt. |
Nee | |
n | geheel getal | Hoeveel opties voor het voltooien van chats voor elk invoerbericht moeten worden gegenereerd. Houd er rekening mee dat er kosten in rekening worden gebracht op basis van het aantal gegenereerde tokens voor alle opties. 1 Houd n rekening met het minimaliseren van de kosten. |
Nee | 1 |
parallel_tool_calls | ParallelToolCalls | Hiermee wordt aangegeven of parallelle functie aanroepen moet worden ingeschakeld tijdens het gebruik van het hulpprogramma. | Nee | Waar |
response_format | ResponseFormatText of ResponseFormatJsonObject of ResponseFormatJsonSchema | Een object dat de indeling aangeeft die het model moet uitvoeren. Compatibel met GPT-4o, GPT-4o mini, GPT-4 Turbo en alle GPT-3.5 Turbo modellen nieuwer dan gpt-3.5-turbo-1106 .Instelling voor { "type": "json_schema", "json_schema": {...} } het inschakelen van gestructureerde uitvoer die garandeert dat het model overeenkomt met het opgegeven JSON-schema.Instelling voor { "type": "json_object" } het inschakelen van de JSON-modus, wat garandeert dat het bericht dat het model genereert geldige JSON is.Belangrijk: wanneer u de JSON-modus gebruikt, moet u het model ook instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een onverwerkte witruimtestroom genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopende en schijnbaar 'vastgelopen' aanvraag. Houd er ook rekening mee dat de inhoud van het bericht gedeeltelijk kan worden afgekapt als finish_reason="length" , wat aangeeft dat de generatie is overschreden max_tokens of het gesprek de maximale contextlengte heeft overschreden. |
Nee | |
seed | geheel getal | Deze functie bevindt zich in de bètaversie. Indien opgegeven, zal ons systeem een best inspanning leveren om de steekproef deterministisch uit te voeren, zodat herhaalde aanvragen met hetzelfde seed en parameters hetzelfde resultaat moeten retourneren.Determinisme is niet gegarandeerd en u moet verwijzen naar de system_fingerprint antwoordparameter om wijzigingen in de back-end te controleren. |
Nee | |
tools | matrix | Een lijst met hulpprogramma's die het model kan aanroepen. Op dit moment worden alleen functies ondersteund als hulpprogramma. Gebruik dit om een lijst met functies op te geven waarvoor het model JSON-invoer kan genereren. Maximaal 128 functies worden ondersteund. |
Nee | |
tool_choice | chatCompletionToolChoiceOption | Hiermee bepaalt u welke (indien van toepassing) hulpprogramma's worden aangeroepen door het model. none betekent dat het model geen hulpprogramma aanroept en in plaats daarvan een bericht genereert. auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer hulpprogramma's. required betekent dat het model een of meer hulpprogramma's moet aanroepen. Het opgeven van een bepaald hulpprogramma via {"type": "function", "function": {"name": "my_function"}} dwingt het model om dat hulpprogramma aan te roepen. none is de standaardinstelling wanneer er geen hulpprogramma's aanwezig zijn. auto is de standaardinstelling als er hulpprogramma's aanwezig zijn. |
Nee | |
function_call | tekenreeks of chatCompletionFunctionCallOption | Afgeschaft ten gunste van tool_choice .Hiermee bepaalt u welke functie (indien aanwezig) wordt aangeroepen door het model. none betekent dat het model geen functie aanroept en in plaats daarvan een bericht genereert.auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een functie.Als u een bepaalde functie opgeeft via dwingt {"name": "my_function"} u het model om die functie aan te roepen.none is de standaardinstelling wanneer er geen functies aanwezig zijn. auto is de standaardinstelling als er functies aanwezig zijn. |
Nee | |
functions | matrix | Afgeschaft ten gunste van tools .Een lijst met functies waarvoor het model JSON-invoer kan genereren. |
Nee |
chatCompletionFunctions
Name | Type | Beschrijving | Vereist | Default |
---|---|---|---|---|
beschrijving | tekenreeks | Een beschrijving van wat de functie doet, die door het model wordt gebruikt om te kiezen wanneer en hoe de functie moet worden aangeroepen. | Nee | |
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. Moet a-z, A-Z, 0-9 of onderstrepingstekens en streepjes bevatten, met een maximale lengte van 64. | Ja | |
parameters | FunctionParameters | De parameters die door de functies worden geaccepteerd, worden beschreven als een JSON-schemaobject. Zie de handleiding voor voorbeelden en de naslaginformatie over het JSON-schema voor documentatie over de indeling. Als u parameters weglaat, wordt een functie met een lege parameterlijst gedefinieerd. |
Nee |
chatCompletionFunctionCallOption
Als u een bepaalde functie opgeeft via dwingt {"name": "my_function"}
u het model om die functie aan te roepen.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. | Ja |
chatCompletionRequestMessage
Dit onderdeel kan een van de volgende zijn:
chatCompletionRequestSystemMessage
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | tekenreeks of matrix | De inhoud van het systeembericht. | Ja | |
role | enum | De rol van de auteur van berichten, in dit geval system .Mogelijke waarden: systeem |
Ja | |
naam | tekenreeks | Een optionele naam voor de deelnemer. Biedt de modelinformatie om onderscheid te maken tussen deelnemers van dezelfde rol. | Nee |
chatCompletionRequestUserMessage
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | tekenreeks of matrix | De inhoud van het gebruikersbericht. |
Ja | |
role | enum | De rol van de auteur van berichten, in dit geval user .Mogelijke waarden: gebruiker |
Ja | |
naam | tekenreeks | Een optionele naam voor de deelnemer. Biedt de modelinformatie om onderscheid te maken tussen deelnemers van dezelfde rol. | Nee |
chatCompletionRequestAssistantMessage
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | tekenreeks of matrix | De inhoud van het assistentbericht. Vereist tenzij tool_calls of function_call is opgegeven. |
Nee | |
weigering | tekenreeks | Het weigeringsbericht van de assistent. | Nee | |
role | enum | De rol van de auteur van berichten, in dit geval assistant .Mogelijke waarden: assistent |
Ja | |
naam | tekenreeks | Een optionele naam voor de deelnemer. Biedt de modelinformatie om onderscheid te maken tussen deelnemers van dezelfde rol. | Nee | |
tool_calls | chatCompletionMessageToolCalls | De hulpprogramma-aanroepen die door het model worden gegenereerd, zoals functie-aanroepen. | Nee | |
function_call | object | Afgeschaft en vervangen door tool_calls . De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model. |
Nee |
Eigenschappen voor function_call
Argumenten
Name | Type | Description | Standaard |
---|---|---|---|
Argumenten | tekenreeks | De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en mogelijk parameters genereert die niet zijn gedefinieerd door uw functieschema. Valideer de argumenten in uw code voordat u de functie aanroept. |
naam
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. |
chatCompletionRequestToolMessage
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
role | enum | De rol van de auteur van berichten, in dit geval tool .Mogelijke waarden: hulpprogramma |
Ja | |
content | tekenreeks of matrix | De inhoud van het hulpmiddelbericht. | Ja | |
tool_call_id | tekenreeks | De aanroep van het hulpprogramma waarop dit bericht reageert. | Ja |
chatCompletionRequestFunctionMessage
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
role | enum | De rol van de auteur van berichten, in dit geval function .Mogelijke waarden: functie |
Ja | |
content | tekenreeks | De inhoud van het functiebericht. | Ja | |
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. | Ja |
chatCompletionRequestSystemMessageContentPart
Dit onderdeel kan een van de volgende zijn:
chatCompletionRequestUserMessageContentPart
Dit onderdeel kan een van de volgende zijn:
chatCompletionRequestAssistantMessageContentPart
Dit onderdeel kan een van de volgende zijn:
chatCompletionRequestToolMessageContentPart
Dit onderdeel kan een van de volgende zijn:
chatCompletionRequestMessageContentPartText
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type inhoudsonderdeel. Mogelijke waarden: tekst |
Ja | |
sms verzenden | tekenreeks | De tekstinhoud. | Ja |
chatCompletionRequestMessageContentPartImage
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type inhoudsonderdeel. Mogelijke waarden: image_url |
Ja | |
image_url | object | Ja |
Eigenschappen voor image_url
URL
Name | Type | Description | Standaard |
---|---|---|---|
URL | tekenreeks | Een URL van de afbeelding of de met base64 gecodeerde afbeeldingsgegevens. |
gedetailleerd
Name | Type | Description | Standaard |
---|---|---|---|
gedetailleerd | tekenreeks | Hiermee geeft u het detailniveau van de afbeelding op. Meer informatie vindt u in de Vision-handleiding. | auto |
chatCompletionRequestMessageContentPartRefusal
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type inhoudsonderdeel. Mogelijke waarden: weigering |
Ja | |
weigering | tekenreeks | Het weigeringsbericht dat door het model is gegenereerd. | Ja |
azureChatExtensionConfiguration
Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een aanvraag voor het voltooien van chats die azure OpenAI-chatextensies moeten gebruiken om het reactiegedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | azureChatExtensionType | Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een chatgesprek voltooiingsaanvraag die azure OpenAI-chatextensies moet gebruiken om het antwoordgedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI. |
Ja |
azureChatExtensionType
Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een aanvraag voor het voltooien van chats die azure OpenAI-chatextensies moeten gebruiken om het reactiegedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
Beschrijving: Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een aanvraag voor het voltooien van chats die azure OpenAI-chatextensies moeten gebruiken om het reactiegedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
Type: tekenreeks
Standaard:
Enum-naam: AzureChatExtensionType
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
azure_search | Vertegenwoordigt het gebruik van Azure Search als een Azure OpenAI-chatextensie. |
azure_cosmos_db | Vertegenwoordigt het gebruik van Azure Cosmos DB als een Azure OpenAI-chatextensie. |
azureSearchChatExtensionConfiguration
Een specifieke weergave van configureerbare opties voor Azure Search wanneer u deze gebruikt als een Azure OpenAI-chatextensie.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | azureChatExtensionType | Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een chatgesprek voltooiingsaanvraag die azure OpenAI-chatextensies moet gebruiken om het antwoordgedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI. |
Ja | |
parameters | azureSearchChatExtensionParameters | Parameters voor Azure Search wanneer deze worden gebruikt als een Azure OpenAI-chatextensie. | Nee |
azureSearchChatExtensionParameters
Parameters voor Azure Search wanneer deze worden gebruikt als een Azure OpenAI-chatextensie.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
verificatie | onYourDataApiKeyAuthenticationOptions of onYourDataSystemAssignedManagedIdentityAuthenticationOptions of onYourDataUserAssignedManagedIdentityAuthenticationOptions | Ja | ||
top_n_documents | geheel getal | Het geconfigureerde bovenste aantal documenten dat moet worden aanbevolen voor de geconfigureerde query. | Nee | |
in_scope | boolean | Of query's moeten worden beperkt tot het gebruik van geïndexeerde gegevens. | Nee | |
gestrengheid | geheel getal | De geconfigureerde striktheid van het filteren op zoekrelevantie. Hoe strikter, hoe hoger de precisie, maar een lagere terugroeping van het antwoord. | Nee | |
role_information | tekenreeks | Geef het model instructies over hoe het zich moet gedragen en eventuele context waarnaar wordt verwezen bij het genereren van een antwoord. U kunt de persoonlijkheid van de assistent beschrijven en vertellen hoe u antwoorden kunt opmaken. Er is een limiet van 100 token voor deze limiet en deze geldt voor de totale tokenlimiet. | Nee | |
endpoint | tekenreeks | Het absolute eindpuntpad voor de Azure Search-resource die moet worden gebruikt. | Ja | |
index_name | tekenreeks | De naam van de index die moet worden gebruikt als beschikbaar in de Azure Search-resource waarnaar wordt verwezen. | Ja | |
fields_mapping | azureSearchIndexFieldMappingOptions | Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Search-resource. | Nee | |
query_type | azureSearchQueryType | Het type Azure Search-ophaalquery dat moet worden uitgevoerd wanneer u deze gebruikt als een Azure OpenAI-chatextensie. | Nee | |
semantic_configuration | tekenreeks | De aanvullende semantische configuratie voor de query. | Nee | |
filter | tekenreeks | Zoekfilter. | Nee | |
embedding_dependency | onYourDataEndpointVectorizationSource of onYourDataDeploymentNameVectorizationSource | Nee |
azureSearchIndexFieldMappingOptions
Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Search-resource.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
title_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als titel. | Nee | |
url_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als URL. | Nee | |
filepath_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als bestandspad. | Nee | |
content_fields | matrix | De namen van indexvelden die als inhoud moeten worden behandeld. | Nee | |
content_fields_separator | tekenreeks | Het scheidingsteken dat inhoudsvelden moeten gebruiken. | Nee | |
vector_fields | matrix | De namen van velden die vectorgegevens vertegenwoordigen. | Nee |
azureSearchQueryType
Het type Azure Search-ophaalquery dat moet worden uitgevoerd wanneer u deze gebruikt als een Azure OpenAI-chatextensie.
Beschrijving: Het type Azure Search-ophaalquery dat moet worden uitgevoerd wanneer u deze gebruikt als een Azure OpenAI-chatextensie.
Type: tekenreeks
Standaard:
Enum-naam: AzureSearchQueryType
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
eenvoudig | Vertegenwoordigt de standaard, eenvoudige queryparser. |
semantisch | Vertegenwoordigt de semantische queryparser voor geavanceerde semantische modellering. |
vector | Vertegenwoordigt vectorzoekopdrachten over berekende gegevens. |
vector_simple_hybrid | Vertegenwoordigt een combinatie van de eenvoudige querystrategie met vectorgegevens. |
vector_semantic_hybrid | Vertegenwoordigt een combinatie van semantische zoek- en vectorgegevensquery's. |
azureCosmosDBChatExtensionConfiguration
Een specifieke weergave van configureerbare opties voor Azure Cosmos DB wanneer u deze gebruikt als een Azure OpenAI-chatextensie.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | azureChatExtensionType | Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een chatgesprek voltooiingsaanvraag die azure OpenAI-chatextensies moet gebruiken om het antwoordgedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI. |
Ja | |
parameters | azureCosmosDBChatExtensionParameters | Parameters die moeten worden gebruikt bij het configureren van Azure OpenAI op uw gegevens-chatextensies bij gebruik van Azure Cosmos DB voor MongoDB vCore. |
Nee |
azureCosmosDBChatExtensionParameters
Parameters die moeten worden gebruikt bij het configureren van Azure OpenAI op uw gegevenschatextensies bij gebruik van Azure Cosmos DB voor MongoDB vCore.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
verificatie | onYourDataConnectionStringAuthenticationOptions | De verificatieopties voor Azure OpenAI op uw gegevens wanneer u een verbindingsreeks gebruikt. | Ja | |
top_n_documents | geheel getal | Het geconfigureerde bovenste aantal documenten dat moet worden aanbevolen voor de geconfigureerde query. | Nee | |
in_scope | boolean | Of query's moeten worden beperkt tot het gebruik van geïndexeerde gegevens. | Nee | |
gestrengheid | geheel getal | De geconfigureerde striktheid van het filteren op zoekrelevantie. Hoe strikter, hoe hoger de precisie, maar een lagere terugroeping van het antwoord. | Nee | |
role_information | tekenreeks | Geef het model instructies over hoe het zich moet gedragen en eventuele context waarnaar wordt verwezen bij het genereren van een antwoord. U kunt de persoonlijkheid van de assistent beschrijven en vertellen hoe u antwoorden kunt opmaken. Er is een limiet van 100 token voor deze limiet en deze geldt voor de totale tokenlimiet. | Nee | |
database_name | tekenreeks | De naam van de MongoDB vCore-database die moet worden gebruikt met Azure Cosmos DB. | Ja | |
container_name | tekenreeks | De naam van de Azure Cosmos DB-resourcecontainer. | Ja | |
index_name | tekenreeks | De naam van de MongoDB vCore-index die moet worden gebruikt met Azure Cosmos DB. | Ja | |
fields_mapping | azureCosmosDBFieldMappingOptions | Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Cosmos DB-resource. | Ja | |
embedding_dependency | onYourDataEndpointVectorizationSource of onYourDataDeploymentNameVectorizationSource | Ja |
azureCosmosDBFieldMappingOptions
Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Cosmos DB-resource.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
title_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als titel. | Nee | |
url_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als URL. | Nee | |
filepath_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als bestandspad. | Nee | |
content_fields | matrix | De namen van indexvelden die als inhoud moeten worden behandeld. | Ja | |
content_fields_separator | tekenreeks | Het scheidingsteken dat inhoudsvelden moeten gebruiken. | Nee | |
vector_fields | matrix | De namen van velden die vectorgegevens vertegenwoordigen. | Ja |
onYourDataAuthenticationOptions
De verificatieopties voor Azure OpenAI op uw gegevens.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataAuthenticationType | De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens. | Ja |
onYourDataAuthenticationType
De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens.
Beschrijving: De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens.
Type: tekenreeks
Standaard:
Enum-naam: OnYourDataAuthenticationType
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
api_key | Verificatie via API-sleutel. |
connection_string | Verificatie via verbindingsreeks. |
system_assigned_managed_identity | Verificatie via door het systeem toegewezen beheerde identiteit. |
user_assigned_managed_identity | Verificatie via door de gebruiker toegewezen beheerde identiteit. |
onYourDataApiKeyAuthenticationOptions
De verificatieopties voor Azure OpenAI op uw gegevens wanneer u een API-sleutel gebruikt.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataAuthenticationType | De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens. | Ja | |
sleutel | tekenreeks | De API-sleutel die moet worden gebruikt voor verificatie. | Nee |
onYourDataConnectionStringAuthenticationOptions
De verificatieopties voor Azure OpenAI op uw gegevens wanneer u een verbindingsreeks gebruikt.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataAuthenticationType | De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens. | Ja | |
connection_string | tekenreeks | Het verbindingsreeks dat moet worden gebruikt voor verificatie. | Nee |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
De verificatieopties voor Azure OpenAI op uw gegevens wanneer u een door het systeem toegewezen beheerde identiteit gebruikt.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataAuthenticationType | De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens. | Ja |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
De verificatieopties voor Azure OpenAI op uw gegevens bij gebruik van een door de gebruiker toegewezen beheerde identiteit.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataAuthenticationType | De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens. | Ja | |
managed_identity_resource_id | tekenreeks | De resource-id van de door de gebruiker toegewezen beheerde identiteit die moet worden gebruikt voor verificatie. | Nee |
onYourDataVectorizationSource
Een abstracte weergave van een vectorisatiebron voor Azure OpenAI On Your Data met vectorzoekopdrachten.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kunnen gebruiken om vectorisatie van gegevens te configureren voor gebruik met vector zoeken. |
Ja |
onYourDataVectorizationSourceType
Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kan gebruiken om vectorisatie van gegevens te configureren voor gebruik met vectorzoekopdrachten.
Beschrijving: Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kunnen gebruiken om vectorisatie van gegevens te configureren voor gebruik met
vector zoeken.
Type: tekenreeks
Standaard:
Enum-naam: OnYourDataVectorizationSourceType
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
endpoint | Vertegenwoordigt vectorisatie die wordt uitgevoerd door openbare serviceaanroepen naar een Azure OpenAI-insluitingsmodel. |
deployment_name | Vertegenwoordigt de implementatienaam van een Ada-model die moet worden gebruikt. Deze modelimplementatie moet zich in dezelfde Azure OpenAI-resource bevinden, maar Op Uw gegevens wordt deze modelimplementatie gebruikt via een interne aanroep in plaats van een openbare aanroep, waardoor vector mogelijk is zelfs in privénetwerken zoeken. |
onYourDataDeploymentNameVectorizationSource
De details van een vectorisatiebron, die wordt gebruikt door Azure OpenAI Op uw gegevens bij het toepassen van vectorzoekopdrachten, die is gebaseerd op een interne naam voor het implementeren van een model voor insluitingen in dezelfde Azure OpenAI-resource.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kunnen gebruiken om vectorisatie van gegevens te configureren voor gebruik met vector zoeken. |
Ja | |
deployment_name | tekenreeks | Hiermee geeft u de naam op van de modelimplementatie die moet worden gebruikt voor vectorisatie. Deze modelimplementatie moet zich in dezelfde Azure OpenAI-resource bevinden, maar op uw gegevens wordt deze modelimplementatie gebruikt via een interne aanroep in plaats van een openbare, waardoor vectorzoekopdrachten zelfs in particuliere netwerken mogelijk zijn. | Nee |
onYourDataEndpointVectorizationSource
De details van een vectorisatiebron, die door Azure OpenAI op uw gegevens worden gebruikt bij het toepassen van vectorzoekopdrachten, die is gebaseerd op een openbare Aanroep van een Azure OpenAI-eindpunt voor insluitingen.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kunnen gebruiken om vectorisatie van gegevens te configureren voor gebruik met vector zoeken. |
Ja | |
verificatie | onYourDataApiKeyAuthenticationOptions | De verificatieopties voor Azure OpenAI op uw gegevens wanneer u een API-sleutel gebruikt. | Nee | |
endpoint | tekenreeks | Hiermee geeft u het eindpunt te gebruiken voor vectorisatie. Dit eindpunt moet zich in dezelfde Azure OpenAI-resource bevinden, maar op uw gegevens wordt dit eindpunt gebruikt via een interne aanroep in plaats van een openbare, waardoor vectorzoekopdrachten zelfs in particuliere netwerken mogelijk zijn. | Nee |
azureChatExtensionsMessageContext
Een weergave van de aanvullende contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn bij het genereren van een overeenkomstig chatvoltooiingsantwoord. Deze contextinformatie wordt alleen ingevuld wanneer u een Azure OpenAI-aanvraag gebruikt die is geconfigureerd voor het gebruik van een overeenkomende extensie.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
Citaten | matrix | Het resultaat van het ophalen van de gegevensbron, dat wordt gebruikt om het assistentbericht in het antwoord te genereren. | Nee | |
intentie | tekenreeks | De gedetecteerde intentie uit de chatgeschiedenis, die wordt gebruikt om door te geven aan de volgende beurt om de context over te dragen. | Nee |
citaat
Bronvermeldingsinformatie voor een antwoordbericht over het voltooien van een chat.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | tekenreeks | De inhoud van de bronvermelding. | Ja | |
title | tekenreeks | De titel van de bronvermelding. | Nee | |
URL | tekenreeks | De URL van de bronvermelding. | Nee | |
bestandspad | tekenreeks | Het bestandspad van de bronvermelding. | Nee | |
chunk_id | tekenreeks | De segment-id van de bronvermelding. | Nee |
chatCompletionMessageToolCall
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
id | tekenreeks | De id van de aanroep van het hulpprogramma. | Ja | |
type | toolCallType | Het type van de aanroep van het hulpprogramma, in dit geval function . |
Ja | |
function | object | De functie die het model heeft aangeroepen. | Ja |
Eigenschappen voor functie
naam
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. |
Argumenten
Name | Type | Description | Standaard |
---|---|---|---|
Argumenten | tekenreeks | De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en mogelijk parameters genereert die niet zijn gedefinieerd door uw functieschema. Valideer de argumenten in uw code voordat u de functie aanroept. |
toolCallType
Het type van de aanroep van het hulpprogramma, in dit geval function
.
Beschrijving: Het type van de aanroep van het hulpprogramma, in dit geval function
.
Type: tekenreeks
Standaard:
Opsommingsnaam: ToolCallType
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
function | Het aanroeptype van het hulpprogramma is functie. |
chatCompletionRequestMessageTool
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
tool_call_id | tekenreeks | De aanroep van het hulpprogramma waarop dit bericht reageert. | Nee | |
content | tekenreeks | De inhoud van het bericht. | Nee |
chatCompletionRequestMessageFunction
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
role | enum | De rol van de auteur van berichten, in dit geval function .Mogelijke waarden: functie |
Nee | |
naam | tekenreeks | De inhoud van het bericht. | Nee | |
content | tekenreeks | De inhoud van het bericht. | Nee |
createChatCompletionResponse
Vertegenwoordigt een antwoord op voltooiing van een chat dat wordt geretourneerd door het model, op basis van de opgegeven invoer.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
id | tekenreeks | Een unieke id voor het voltooien van de chat. | Ja | |
prompt_filter_results | promptFilterResults | Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen. | Nee | |
Keuzes | matrix | Een lijst met opties voor chatvoltooiing. Kan meer dan één zijn als n deze groter is dan 1. |
Ja | |
aangemaakt | geheel getal | De Unix-tijdstempel (in seconden) van het moment waarop de chat is voltooid. | Ja | |
model | tekenreeks | Het model dat wordt gebruikt voor het voltooien van de chat. | Ja | |
system_fingerprint | tekenreeks | Deze vingerafdruk vertegenwoordigt de back-endconfiguratie waarmee het model wordt uitgevoerd. Kan worden gebruikt in combinatie met de seed aanvraagparameter om te begrijpen wanneer er back-endwijzigingen zijn aangebracht die van invloed kunnen zijn op determinisme. |
Nee | |
object | enum | Het objecttype, dat altijd chat.completion is.Mogelijke waarden: chat.completion |
Ja | |
gebruikt | completionUsage | Gebruiksstatistieken voor de voltooiingsaanvraag. | Nee |
createChatCompletionStreamResponse
Vertegenwoordigt een gestreamd segment van een antwoord op voltooiing van een chat dat door het model wordt geretourneerd, op basis van de opgegeven invoer.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
id | tekenreeks | Een unieke id voor het voltooien van de chat. Elk segment heeft dezelfde id. | Ja | |
Keuzes | matrix | Een lijst met opties voor chatvoltooiing. Kan meer dan één element bevatten als n deze groter is dan 1. |
Ja | |
aangemaakt | geheel getal | De Unix-tijdstempel (in seconden) van het moment waarop de chat is voltooid. Elk segment heeft dezelfde tijdstempel. | Ja | |
model | tekenreeks | Het model om de voltooiing te genereren. | Ja | |
system_fingerprint | tekenreeks | Deze vingerafdruk vertegenwoordigt de back-endconfiguratie waarmee het model wordt uitgevoerd. Kan worden gebruikt in combinatie met de seed aanvraagparameter om te begrijpen wanneer er back-endwijzigingen zijn aangebracht die van invloed kunnen zijn op determinisme. |
Nee | |
object | enum | Het objecttype, dat altijd chat.completion.chunk is.Mogelijke waarden: chat.completion.chunk |
Ja |
chatCompletionStreamResponseDelta
Een delta voor het voltooien van chats die wordt gegenereerd door gestreamde modelreacties.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | tekenreeks | De inhoud van het segmentbericht. | Nee | |
function_call | object | Afgeschaft en vervangen door tool_calls . De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model. |
Nee | |
tool_calls | matrix | Nee | ||
role | enum | De rol van de auteur van dit bericht. Mogelijke waarden: systeem, gebruiker, assistent, hulpprogramma |
Nee | |
weigering | tekenreeks | Het weigeringsbericht dat door het model is gegenereerd. | Nee |
Eigenschappen voor function_call
Argumenten
Name | Type | Description | Standaard |
---|---|---|---|
Argumenten | tekenreeks | De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en mogelijk parameters genereert die niet zijn gedefinieerd door uw functieschema. Valideer de argumenten in uw code voordat u de functie aanroept. |
naam
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. |
chatCompletionMessageToolCallChunk
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
index | geheel getal | Ja | ||
id | tekenreeks | De id van de aanroep van het hulpprogramma. | Nee | |
type | enum | Het type hulpprogramma. Momenteel wordt alleen function ondersteund.Mogelijke waarden: functie |
Nee | |
function | object | Nee |
Eigenschappen voor functie
naam
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. |
Argumenten
Name | Type | Description | Standaard |
---|---|---|---|
Argumenten | tekenreeks | De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en mogelijk parameters genereert die niet zijn gedefinieerd door uw functieschema. Valideer de argumenten in uw code voordat u de functie aanroept. |
chatCompletionStreamOptions
Opties voor streaming-antwoord. Stel dit alleen in wanneer u instelt stream: true
.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
include_usage | boolean | Als dit is ingesteld, wordt er vóór het data: [DONE] bericht een extra segment gestreamd. Het usage veld in dit segment toont de gebruiksstatistieken van tokens voor de hele aanvraag en het choices veld is altijd een lege matrix. Alle andere segmenten bevatten ook een usage veld, maar met een null-waarde. |
Nee |
chatCompletionChoiceLogProbs
Logboekinformatie over waarschijnlijkheid voor de keuze.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | matrix | Een lijst met berichteninhoudstokens met informatie over logboekkans. | Ja | |
weigering | matrix | Een lijst met weigeringstokens voor berichten met informatie over de logboekkans. | Nee |
chatCompletionTokenLogprob
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
token | tekenreeks | Het token. | Ja | |
logprob | Nummer | De logboekkans van dit token. | Ja | |
bytes | matrix | Een lijst met gehele getallen die de UTF-8 bytes vertegenwoordigen van het token. Handig in gevallen waarin tekens worden vertegenwoordigd door meerdere tokens en hun byteweergaven moeten worden gecombineerd om de juiste tekstweergave te genereren. Dit kan zijn null als er geen bytes voor het token zijn. |
Ja | |
top_logprobs | matrix | Lijst met de meest waarschijnlijke tokens en hun logboekkans, op deze tokenpositie. In zeldzame gevallen kan er minder zijn dan het aantal aangevraagde top_logprobs geretourneerde aanvragen. |
Ja |
chatCompletionResponseMessage
Een chatvoltooiingsbericht gegenereerd door het model.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
role | chatCompletionResponseMessageRole | De rol van de auteur van het antwoordbericht. | Ja | |
weigering | tekenreeks | Het weigeringsbericht dat door het model is gegenereerd. | Ja | |
content | tekenreeks | De inhoud van het bericht. | Ja | |
tool_calls | matrix | De hulpprogramma-aanroepen die door het model worden gegenereerd, zoals functie-aanroepen. | Nee | |
function_call | chatCompletionFunctionCall | Afgeschaft en vervangen door tool_calls . De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model. |
Nee | |
context | azureChatExtensionsMessageContext | Een weergave van de aanvullende contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn bij het genereren van een overeenkomstig chat-voltooiingsantwoord. Deze contextinformatie wordt alleen ingevuld wanneer met behulp van een Azure OpenAI-aanvraag die is geconfigureerd voor het gebruik van een overeenkomende extensie. |
Nee |
chatCompletionResponseMessageRole
De rol van de auteur van het antwoordbericht.
Beschrijving: De rol van de auteur van het antwoordbericht.
Type: tekenreeks
Standaard:
Enum-waarden:
- assistent
chatCompletionToolChoiceOption
Hiermee bepaalt u welke (indien van toepassing) hulpprogramma's worden aangeroepen door het model. none
betekent dat het model geen hulpprogramma aanroept en in plaats daarvan een bericht genereert. auto
betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer hulpprogramma's. required
betekent dat het model een of meer hulpprogramma's moet aanroepen. Het opgeven van een bepaald hulpprogramma via {"type": "function", "function": {"name": "my_function"}}
dwingt het model om dat hulpprogramma aan te roepen. none
is de standaardinstelling wanneer er geen hulpprogramma's aanwezig zijn. auto
is de standaardinstelling als er hulpprogramma's aanwezig zijn.
Dit onderdeel kan een van de volgende zijn:
chatCompletionNamedToolChoice
Hiermee geeft u een hulpprogramma op dat het model moet gebruiken. Gebruik dit om het model te dwingen een specifieke functie aan te roepen.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type hulpprogramma. Momenteel wordt alleen function ondersteund.Mogelijke waarden: functie |
Ja | |
function | object | Ja |
Eigenschappen voor functie
naam
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. |
ParallelToolCalls
Hiermee wordt aangegeven of parallelle functie aanroepen moet worden ingeschakeld tijdens het gebruik van het hulpprogramma.
Er zijn geen eigenschappen gedefinieerd voor dit onderdeel.
chatCompletionMessageToolCalls
De hulpprogramma-aanroepen die door het model worden gegenereerd, zoals functie-aanroepen.
Er zijn geen eigenschappen gedefinieerd voor dit onderdeel.
chatCompletionFunctionCall
Afgeschaft en vervangen door tool_calls
. De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. | Ja | |
Argumenten | tekenreeks | De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en mogelijk parameters genereert die niet zijn gedefinieerd door uw functieschema. Valideer de argumenten in uw code voordat u de functie aanroept. | Ja |
completionUsage
Gebruiksstatistieken voor de voltooiingsaanvraag.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
prompt_tokens | geheel getal | Aantal tokens in de prompt. | Ja | |
completion_tokens | geheel getal | Aantal tokens in de gegenereerde voltooiing. | Ja | |
total_tokens | geheel getal | Het totale aantal tokens dat wordt gebruikt in de aanvraag (prompt + voltooiing). | Ja | |
completion_tokens_details | object | Uitsplitsing van tokens die worden gebruikt in een voltooiing. | Nee |
Eigenschappen voor completion_tokens_details
reasoning_tokens
Name | Type | Description | Standaard |
---|---|---|---|
reasoning_tokens | geheel getal | Tokens die door het model worden gegenereerd voor redenering. |
chatCompletionTool
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type hulpprogramma. Momenteel wordt alleen function ondersteund.Mogelijke waarden: functie |
Ja | |
function | FunctionObject | Ja |
FunctionParameters
De parameters die door de functies worden geaccepteerd, worden beschreven als een JSON-schemaobject. Zie de handleiding voor voorbeelden en de naslaginformatie over het JSON-schema voor documentatie over de indeling.
Als u parameters
weglaat, wordt een functie met een lege parameterlijst gedefinieerd.
Er zijn geen eigenschappen gedefinieerd voor dit onderdeel.
FunctionObject
Name | Type | Beschrijving | Vereist | Default |
---|---|---|---|---|
beschrijving | tekenreeks | Een beschrijving van wat de functie doet, die door het model wordt gebruikt om te kiezen wanneer en hoe de functie moet worden aangeroepen. | Nee | |
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. Moet a-z, A-Z, 0-9 of onderstrepingstekens en streepjes bevatten, met een maximale lengte van 64. | Ja | |
parameters | FunctionParameters | De parameters die door de functies worden geaccepteerd, worden beschreven als een JSON-schemaobject. Zie de handleiding voor voorbeelden en de naslaginformatie over het JSON-schema voor documentatie over de indeling. Als u parameters weglaat, wordt een functie met een lege parameterlijst gedefinieerd. |
Nee | |
streng | boolean | Of u strikte schema-naleving wilt inschakelen bij het genereren van de functieaanroep. Als dit is ingesteld op true, volgt het model het exacte schema dat in het parameters veld is gedefinieerd. Alleen een subset van het JSON-schema wordt ondersteund wanneer strict dit is true . |
Nee | Onwaar |
ResponseFormatText
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type antwoordindeling dat wordt gedefinieerd: text Mogelijke waarden: tekst |
Ja |
ResponseFormatJsonObject
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type antwoordindeling dat wordt gedefinieerd: json_object Mogelijke waarden: json_object |
Ja |
ResponseFormatJsonSchemaSchema
Het schema voor de antwoordindeling, beschreven als een JSON-schemaobject.
Er zijn geen eigenschappen gedefinieerd voor dit onderdeel.
ResponseFormatJsonSchema
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type antwoordindeling dat wordt gedefinieerd: json_schema Mogelijke waarden: json_schema |
Ja | |
json_schema | object | Ja |
Eigenschappen voor json_schema
beschrijving
Naam | Type | Description | Default |
---|---|---|---|
beschrijving | tekenreeks | Een beschrijving van wat de antwoordindeling is, die door het model wordt gebruikt om te bepalen hoe moet worden gereageerd in de indeling. |
naam
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de antwoordindeling. Moet a-z, A-Z, 0-9 of onderstrepingstekens en streepjes bevatten, met een maximale lengte van 64. |
schema
Name | Type | Description | Standaard |
---|---|---|---|
schema | ResponseFormatJsonSchemaSchema | Het schema voor de antwoordindeling, beschreven als een JSON-schemaobject. |
streng
Name | Type | Description | Standaard |
---|---|---|---|
streng | boolean | Of u strikte schema-naleving wilt inschakelen bij het genereren van de uitvoer. Als dit is ingesteld op true, volgt het model altijd het exacte schema dat in het schema veld is gedefinieerd. Alleen een subset van het JSON-schema wordt ondersteund wanneer strict dit is true . |
Onwaar |
chatCompletionChoiceCommon
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
index | geheel getal | Nee | ||
finish_reason | tekenreeks | Nee |
createTranslationRequest
Vertaalaanvraag.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
bestand | tekenreeks | Het audiobestand dat moet worden vertaald. | Ja | |
vraag | tekenreeks | Een optionele tekst om de stijl van het model te begeleiden of door te gaan met een vorig audiosegment. De prompt moet in het Engels zijn. | Nee | |
response_format | audioResponseFormat | Hiermee definieert u de indeling van de uitvoer. | Nee | |
temperatuur | Nummer | De steekproeftemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Als dit is ingesteld op 0, gebruikt het model logboekkans om de temperatuur automatisch te verhogen totdat bepaalde drempelwaarden worden bereikt. | Nee | 0 |
audioResponse
Vertaling of transcriptiereactie toen response_format json was
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
sms verzenden | tekenreeks | Vertaalde of getranscribeerde tekst. | Ja |
audioVerboseResponse
Vertaling of transcriptiereactie toen response_format werd verbose_json
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
sms verzenden | tekenreeks | Vertaalde of getranscribeerde tekst. | Ja | |
taak | tekenreeks | Type audiotaak. | Nee | |
taal | tekenreeks | Taal. | Nee | |
duur | Nummer | Duur. | Nee | |
Segmenten | matrix | Nee |
audioResponseFormat
Hiermee definieert u de indeling van de uitvoer.
Beschrijving: Definieert de indeling van de uitvoer.
Type: tekenreeks
Standaard:
Enum-waarden:
- json
- sms verzenden
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transcriptieaanvraag.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
bestand | tekenreeks | Het audiobestandobject dat moet worden getranscribeerd. | Ja | |
vraag | tekenreeks | Een optionele tekst om de stijl van het model te begeleiden of door te gaan met een vorig audiosegment. De prompt moet overeenkomen met de audiotaal. | Nee | |
response_format | audioResponseFormat | Hiermee definieert u de indeling van de uitvoer. | Nee | |
temperatuur | Nummer | De steekproeftemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Als dit is ingesteld op 0, gebruikt het model logboekkans om de temperatuur automatisch te verhogen totdat bepaalde drempelwaarden worden bereikt. | Nee | 0 |
taal | tekenreeks | De taal van de invoeraudio. Het leveren van de invoertaal in ISO-639-1-indeling verbetert de nauwkeurigheid en latentie. | Nee |
audioSegment
Transcriptie- of vertaalsegment.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
id | geheel getal | Segment-id. | Nee | |
zoeken | Nummer | Verschuiving van het segment. | Nee | |
starten | Nummer | Segment beginverschil. | Nee | |
end | Nummer | Eindverschil segment. | Nee | |
sms verzenden | tekenreeks | Segmenttekst. | Nee | |
Tokens | matrix | Tokens van de tekst. | Nee | |
temperatuur | Nummer | Temperatuur. | Nee | |
avg_logprob | Nummer | Gemiddelde logboekkans. | Nee | |
compression_ratio | Nummer | Compressieverhouding. | Nee | |
no_speech_prob | Nummer | Waarschijnlijkheid van no speech . |
Nee |
imageQuality
De kwaliteit van de afbeelding die wordt gegenereerd.
Beschrijving: De kwaliteit van de afbeelding die wordt gegenereerd.
Type: tekenreeks
Standaard: standaard
Naam van opsomming: kwaliteit
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
standard | Standaardkwaliteit creëert afbeeldingen met standaardkwaliteit. |
harde schijf | Hd-kwaliteit maakt afbeeldingen met gedetailleerdere details en meer consistentie in de afbeelding. |
imagesResponseFormat
De indeling waarin de gegenereerde afbeeldingen worden geretourneerd.
Beschrijving: De indeling waarin de gegenereerde afbeeldingen worden geretourneerd.
Type: tekenreeks
Standaard: URL
Enum-naam: ImagesResponseFormat
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
url | De URL die tijdelijke toegang biedt om de gegenereerde afbeeldingen te downloaden. |
b64_json | De gegenereerde afbeeldingen worden geretourneerd als een met base64 gecodeerde tekenreeks. |
imageSize
De grootte van de gegenereerde afbeeldingen.
Beschrijving: De grootte van de gegenereerde afbeeldingen.
Type: tekenreeks
Standaard: 1024x1024
Naam van opsomming: grootte
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
1792x1024 | De gewenste grootte van de gegenereerde afbeelding is 1792x1024 pixels. |
1024x1792 | De gewenste grootte van de gegenereerde afbeelding is 1024x1792 pixels. |
1024x1024 | De gewenste grootte van de gegenereerde afbeelding is 1024x1024 pixels. |
imageStyle
De stijl van de gegenereerde afbeeldingen.
Beschrijving: De stijl van de gegenereerde afbeeldingen.
Type: tekenreeks
Standaard: levendig
Naam van opsomming: stijl
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
levendig | Levendig creëert beelden die hyperrealistisch en dramatisch zijn. |
natuurlijk | Natuurlijk creëert afbeeldingen die natuurlijker en minder hyperrealistisch zijn. |
imageGenerationsRequest
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
vraag | tekenreeks | Een tekstbeschrijving van de gewenste afbeelding(en). De maximale lengte is 4000 tekens. | Ja | |
n | geheel getal | Het aantal afbeeldingen dat moet worden gegenereerd. | Nee | 1 |
size | imageSize | De grootte van de gegenereerde afbeeldingen. | Nee | 1024x1024 |
response_format | imagesResponseFormat | De indeling waarin de gegenereerde afbeeldingen worden geretourneerd. | Nee | URL |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. | Nee | |
kwaliteit | imageQuality | De kwaliteit van de afbeelding die wordt gegenereerd. | Nee | standard |
stijl | imageStyle | De stijl van de gegenereerde afbeeldingen. | Nee | levendig |
generateImagesResponse
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
aangemaakt | geheel getal | De UNIX-tijdstempel toen de bewerking werd gemaakt. | Ja | |
gegevens | matrix | De resultaatgegevens van de bewerking, indien geslaagd | Ja |
imageResult
De afbeeldings-URL of gecodeerde installatiekopieën, indien geslaagd, en anders een fout.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
URL | tekenreeks | De afbeeldings-URL. | Nee | |
b64_json | tekenreeks | De met base64 gecodeerde installatiekopieën | Nee | |
content_filter_results | dalleContentFilterResults | Informatie over de resultaten van het filteren van inhoud. | Nee | |
revised_prompt | tekenreeks | De prompt die is gebruikt voor het genereren van de installatiekopieën, als er een revisie op de prompt is uitgevoerd. | Nee | |
prompt_filter_results | dalleFilterResults | Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id. | Nee |
Uitbreidingen voor voltooiingen
Voltooiingsextensies maken geen deel uit van de nieuwste GA-versie van de azure OpenAI-gegevensvlakdeductiespecificatie.
Chatbericht
Het chatberichtobject maakt geen deel uit van de nieuwste GA-versie van de azure OpenAI-gegevensvlakdeductiespecificatie.
Tekst naar spraak
Maakt momenteel geen deel uit van de nieuwste Azure OpenAI GA-versie van de azure OpenAI-gegevensvlakdeductiespecificatie. Raadpleeg de nieuwste preview-versie voor deze mogelijkheid.
Volgende stappen
Meer informatie over modellen en het afstemmen met de REST API. Meer informatie over de onderliggende modellen die Azure OpenAI mogelijk maken.