Azure OpenAI Service REST API-referens
Den här artikeln innehåller information om rest-API-slutpunkterna för inferens för Azure OpenAI.
API-specifikationer
Hantering och interaktion med Azure OpenAI-modeller och resurser är uppdelade på tre primära API-ytor:
- Kontrollplan
- Dataplan – redigering
- Dataplan – slutsatsdragning
Varje API-yta/specifikation kapslar in en annan uppsättning Azure OpenAI-funktioner. Varje API har en egen unik uppsättning förhandsversioner och stabila/allmänt tillgängliga API-versioner (GA). Förhandsversioner tenderar för närvarande att följa en månatlig takt.
API | Senaste förhandsversion | Senaste GA-versionen | Specifikationer | beskrivning |
---|---|---|---|---|
Kontrollplan | 2024-06-01-preview |
2024-10-01 |
Spec-filer | Azure OpenAI delar ett gemensamt kontrollplan med alla andra Azure AI-tjänster. Kontrollplans-API:et används för saker som att skapa Azure OpenAI-resurser, modelldistribution och andra resurshanteringsuppgifter på högre nivå. Kontrollplanet styr också vad som är möjligt att göra med funktioner som Azure Resource Manager, Bicep, Terraform och Azure CLI. |
Dataplan – redigering | 2024-10-01-preview |
2024-10-21 |
Spec-filer | API:et för redigering av dataplanet styr finjustering, filuppladdning, inmatningsjobb, batchfrågor och vissa frågor på modellnivå |
Dataplan – slutsatsdragning | 2024-10-01-preview |
2024-10-21 |
Spec-filer | API:et för dataplansinferens tillhandahåller slutsatsdragningsfunktioner/slutpunkter för funktioner som slutföranden, chattavslutningar, inbäddningar, tal/viskningar, på dina data, Dall-e, assistenter osv. |
Autentisering
Azure OpenAI tillhandahåller två metoder för autentisering. Du kan använda ANTINGEN API-nycklar eller Microsoft Entra-ID.
API-nyckelautentisering: För den här typen av autentisering måste alla API-begäranden innehålla API-nyckeln i
api-key
HTTP-huvudet. Snabbstarten innehåller vägledning för hur du gör anrop med den här typen av autentisering.Microsoft Entra-ID-autentisering: Du kan autentisera ett API-anrop med hjälp av en Microsoft Entra-token. Autentiseringstoken ingår i en begäran som
Authorization
rubrik. Den angivna token måste föregås avBearer
, till exempelBearer YOUR_AUTH_TOKEN
. Du kan läsa vår guide om autentisering med Microsoft Entra-ID.
REST API-versionshantering
Tjänst-API:erna versionshanteras med frågeparametern api-version
. Alla versioner följer datumstrukturen ÅÅÅÅÅ-MM-DD. Till exempel:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Slutsatsdragning av dataplan
Resten av artikeln beskriver den senaste GA-versionen av Inferensspecifikationen för Azure OpenAI-dataplanet, 2024-10-21
.
Om du letar efter dokumentation om den senaste förhandsversionen av API:et läser du det senaste api:et för förhandsversion av dataplanets slutsatsdragning
Kompletteringar
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Skapar ett slutförande för den angivna prompten, parametrarna och den valda modellen.
URI-parametrar
Name | I | Obligatoriskt | Type | Beskrivning |
---|---|---|---|---|
slutpunkt | path | Ja | sträng URL |
Azure OpenAI-slutpunkter som stöds (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com . Ersätt "aoairesource" med ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Ja | sträng | Distributions-ID för modellen som distribuerades. |
api-version | query | Ja | sträng | API-version |
Begärandehuvud
Namn | Obligatoriskt | Type | Beskrivning |
---|---|---|---|
api-key | Sant | sträng | Ange Azure OpenAI API-nyckel här |
Begärandetext
Innehållstyp: program/json
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
snabb | sträng eller matris | Uppmaningen att generera slutföranden för, kodade som en sträng, matris med strängar, matris med token eller matris med tokenmatriser. Observera att <|endoftext|> är dokumentavgränsaren som modellen ser under träningen, så om en fråga inte anges genereras modellen som från början av ett nytt dokument. |
Ja | |
best_of | integer | Genererar best_of slutföranden på serversidan och returnerar den "bästa" (den med högsta loggens sannolikhet per token). Resultat kan inte strömmas.När det används med n kontrollerar best_of du antalet kandidatavslut och n anger hur många som ska returneras â€" best_of måste vara större än n .Obs! Eftersom den här parametern genererar många slutföranden kan den snabbt förbruka din tokenkvot. Använd noggrant och se till att du har rimliga inställningar för max_tokens och stop . |
Nej | 1 |
eko | boolean | Upprepa uppmaningen utöver slutförandet |
Nej | Falsk |
frequency_penalty | Nummer | Tal mellan -2.0 och 2.0. Positiva värden straffar nya token baserat på deras befintliga frekvens i texten hittills, vilket minskar modellens sannolikhet att upprepa samma rad ordagrant. |
Nej | 0 |
logit_bias | objekt | Ändra sannolikheten för att angivna token visas i slutförandet. Accepterar ett JSON-objekt som mappar token (anges av deras token-ID i GPT-tokenizern) till ett associerat bias-värde från -100 till 100. Matematiskt läggs biasen till i de logits som genereras av modellen före sampling. Den exakta effekten varierar per modell, men värden mellan -1 och 1 bör minska eller öka sannolikheten för val. värden som -100 eller 100 bör resultera i ett förbud eller exklusivt val av relevant token. Du kan till exempel skicka {"50256": -100} för att förhindra <att token |endoftext|> genereras. |
Nej | Ingen |
logprobs | integer | Inkludera loggannolikheterna på de logprobs mest sannolika utdatatoken, samt de valda token. Om logprobs det till exempel är 5 returnerar API:et en lista över de fem mest sannolika token. API:et logprob returnerar alltid den samplade token, så det kan finnas upp till logprobs+1 element i svaret.Det maximala värdet för logprobs är 5. |
Nej | Ingen |
max_tokens | integer | Det maximala antalet token som kan genereras i slutförandet. Tokenantalet för din fråga plus max_tokens får inte överskrida modellens kontextlängd. |
Nej | 16 |
n | integer | Hur många slutföranden som ska genereras för varje fråga. Obs! Eftersom den här parametern genererar många slutföranden kan den snabbt förbruka din tokenkvot. Använd noggrant och se till att du har rimliga inställningar för max_tokens och stop . |
Nej | 1 |
presence_penalty | Nummer | Tal mellan -2.0 och 2.0. Positiva värden straffar nya token baserat på om de visas i texten hittills, vilket ökar modellens sannolikhet att prata om nya ämnen. |
Nej | 0 |
frö | integer | Om det anges gör vårt system bästa för att sampla deterministiskt, så att upprepade begäranden med samma seed och parametrar ska returnera samma resultat.Determinism är inte garanterad och du bör referera till svarsparametern system_fingerprint för att övervaka ändringar i serverdelen. |
Nej | |
Stanna | sträng eller matris | Upp till fyra sekvenser där API:et slutar generera ytterligare token. Den returnerade texten innehåller inte stoppsekvensen. |
Nej | |
ström | boolean | Om du vill strömma tillbaka partiella förlopp. Om det anges skickas token som databaserade serverutskickade händelser när de blir tillgängliga, och strömmen avslutas av ett data: [DONE] meddelande. |
Nej | Falsk |
suffix | sträng | Suffixet som kommer efter att infogad text har slutförts. Den här parametern stöds endast för gpt-3.5-turbo-instruct . |
Nej | Ingen |
temperatur | Nummer | Vilken samplingstemperatur som ska användas, mellan 0 och 2. Högre värden som 0,8 gör utdata mer slumpmässiga, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Vi rekommenderar vanligtvis att du ändrar detta eller top_p men inte båda. |
Nej | 1 |
top_p | Nummer | Ett alternativ till sampling med temperatur, som kallas kärnsampling, där modellen tar hänsyn till resultatet av token med top_p sannolikhetsmassa. Så 0,1 innebär att endast token som består av den översta 10 % sannolikhetsmassan beaktas. Vi rekommenderar vanligtvis att du ändrar detta eller temperature men inte båda. |
Nej | 1 |
användare | sträng | En unik identifierare som representerar slutanvändaren, som kan hjälpa till att övervaka och upptäcka missbruk. |
Nej |
Svar
Statuskod: 200
Beskrivning: OK
Innehållstyp | Typ | Beskrivning |
---|---|---|
application/json | createCompletionResponse | Representerar ett slutförandesvar från API:et. Obs! Både strömmade och icke-strömmade svarsobjekt har samma form (till skillnad från chattslutpunkten). |
Statuskod: standard
Beskrivning: Tjänsten är inte tillgänglig
Innehållstyp | Typ | Beskrivning |
---|---|---|
application/json | errorResponse |
Exempel
Exempel
Skapar ett slutförande för den angivna prompten, parametrarna och den valda modellen.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Svar: Statuskod: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Inbäddningar
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Få en vektorrepresentation av en viss indata som enkelt kan användas av maskininlärningsmodeller och algoritmer.
URI-parametrar
Name | I | Obligatoriskt | Type | Beskrivning |
---|---|---|---|---|
slutpunkt | path | Ja | sträng URL |
Azure OpenAI-slutpunkter som stöds (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com . Ersätt "aoairesource" med ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Ja | sträng | |
api-version | query | Ja | sträng | API-version |
Begärandehuvud
Namn | Obligatoriskt | Type | Beskrivning |
---|---|---|---|
api-key | Sant | sträng | Ange Azure OpenAI API-nyckel här |
Begärandetext
Innehållstyp: program/json
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
indata | sträng eller matris | Indatatext som ska bäddas in, kodas som en sträng eller matris med token. Om du vill bädda in flera indata i en enda begäran skickar du en matris med strängar eller matriser med tokenmatriser. Indata får inte överskrida de maximala indatatoken för modellen (8 192 token för text-embedding-ada-002 ), får inte vara en tom sträng och alla matriser måste vara 2 048 dimensioner eller mindre. |
Ja | |
användare | sträng | En unik identifierare som representerar slutanvändaren, som kan hjälpa dig att övervaka och upptäcka missbruk. | Nej | |
input_type | sträng | indatatyp för inbäddningssökning som ska användas | Nej | |
encoding_format | sträng | Formatet för att returnera inbäddningarna i. Kan vara antingen float eller base64 . Standardvärdet är float . |
Nej | |
dimensioner | integer | Antalet dimensioner som resulterande inbäddningar av utdata ska ha. Stöds endast i text-embedding-3 och senare modeller. |
Nej |
Svar
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
objekt | sträng | Ja | ||
modell | sträng | Ja | ||
data | matris | Ja | ||
användning | objekt | Ja |
Egenskaper för användning
prompt_tokens
Namn | Type | Beskrivning | Standard |
---|---|---|---|
prompt_tokens | integer |
total_tokens
Namn | Type | Beskrivning | Standard |
---|---|---|---|
total_tokens | integer |
Statuskod: 200
Beskrivning: OK
Innehållstyp | Typ | Beskrivning |
---|---|---|
application/json | objekt |
Exempel
Exempel
Returnera inbäddningarna för en viss fråga.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Svar: Statuskod: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chatten har slutförts
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Skapar ett slutförande för chattmeddelandet
URI-parametrar
Name | I | Obligatoriskt | Type | Beskrivning |
---|---|---|---|---|
slutpunkt | path | Ja | sträng URL |
Azure OpenAI-slutpunkter som stöds (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com . Ersätt "aoairesource" med ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Ja | sträng | Distributions-ID för modellen som distribuerades. |
api-version | query | Ja | sträng | API-version |
Begärandehuvud
Namn | Obligatoriskt | Type | Beskrivning |
---|---|---|---|
api-key | Sant | sträng | Ange Azure OpenAI API-nyckel här |
Begärandetext
Innehållstyp: program/json
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
temperatur | Nummer | Vilken samplingstemperatur som ska användas, mellan 0 och 2. Högre värden som 0,8 gör utdata mer slumpmässiga, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Vi rekommenderar vanligtvis att du ändrar detta eller top_p men inte båda. |
Nej | 1 |
top_p | Nummer | Ett alternativ till sampling med temperatur, som kallas kärnsampling, där modellen tar hänsyn till resultatet av token med top_p sannolikhetsmassa. Så 0,1 innebär att endast token som består av den översta 10 % sannolikhetsmassan beaktas. Vi rekommenderar vanligtvis att du ändrar detta eller temperature men inte båda. |
Nej | 1 |
ström | boolean | Om det anges skickas delvisa meddelandedelta, till exempel i ChatGPT. Token skickas som serverutsända händelser endast för data när de blir tillgängliga, och strömmen avslutas av ett data: [DONE] meddelande. |
Nej | Falsk |
Stanna | sträng eller matris | Upp till fyra sekvenser där API:et slutar generera ytterligare token. |
Nej | |
max_tokens | integer | Det maximala antalet token som kan genereras i chattens slutförande. Den totala längden på indatatoken och genererade token begränsas av modellens kontextlängd. |
Nej | |
max_completion_tokens | integer | En övre gräns för antalet token som kan genereras för en slutförande, inklusive synliga utdatatoken och resonemangstoken. | Nej | |
presence_penalty | Nummer | Tal mellan -2.0 och 2.0. Positiva värden straffar nya token baserat på om de visas i texten hittills, vilket ökar modellens sannolikhet att prata om nya ämnen. |
Nej | 0 |
frequency_penalty | Nummer | Tal mellan -2.0 och 2.0. Positiva värden straffar nya token baserat på deras befintliga frekvens i texten hittills, vilket minskar modellens sannolikhet att upprepa samma rad ordagrant. |
Nej | 0 |
logit_bias | objekt | Ändra sannolikheten för att angivna token visas i slutförandet. Accepterar ett JSON-objekt som mappar token (som anges av deras token-ID i tokenizern) till ett associerat bias-värde från -100 till 100. Matematiskt läggs biasen till i de logits som genereras av modellen före sampling. Den exakta effekten varierar per modell, men värden mellan -1 och 1 bör minska eller öka sannolikheten för val. värden som -100 eller 100 bör resultera i ett förbud eller exklusivt val av relevant token. |
Nej | Ingen |
användare | sträng | En unik identifierare som representerar slutanvändaren, som kan hjälpa till att övervaka och upptäcka missbruk. |
Nej | |
meddelanden | matris | En lista över meddelanden som består av konversationen hittills. | Ja | |
data_sources | matris | Konfigurationsposterna för Azure OpenAI-chatttillägg som använder dem. Den här ytterligare specifikationen är endast kompatibel med Azure OpenAI. |
Nej | |
logprobs | boolean | Om du vill returnera loggannolikheter för utdatatoken eller inte. Om sant returnerar loggannolikerna för varje utdatatoken som returneras i content i message . |
Nej | Falsk |
top_logprobs | integer | Ett heltal mellan 0 och 20 som anger antalet mest sannolika token som ska returneras vid varje tokenposition, var och en med en associerad loggsannolikhet. logprobs måste anges till true om den här parametern används. |
Nej | |
n | integer | Hur många alternativ för chattavslut som ska genereras för varje indatameddelande. Observera att du debiteras baserat på antalet genererade token i alla alternativ. Behåll n för 1 att minimera kostnaderna. |
Nej | 1 |
parallel_tool_calls | ParallelToolCalls | Om du vill aktivera parallell funktionsanrop under verktygsanvändning. | Nej | Sann |
response_format | ResponseFormatText eller ResponseFormatJsonObject eller ResponseFormatJsonSchema | Ett objekt som anger det format som modellen måste mata ut. Kompatibel med GPT-4o, GPT-4o mini, GPT-4 Turbo och alla GPT-3.5 Turbo modeller nyare än gpt-3.5-turbo-1106 .Inställning för att { "type": "json_schema", "json_schema": {...} } aktivera strukturerade utdata som garanterar att modellen matchar ditt angivna JSON-schema.Inställningen för att { "type": "json_object" } aktivera JSON-läge, vilket garanterar att meddelandet som modellen genererar är giltigt JSON.Viktigt: När du använder JSON-läge måste du också instruera modellen att skapa JSON själv via ett system- eller användarmeddelande. Utan detta kan modellen generera en avaktiverande ström av blanksteg tills genereringen når tokengränsen, vilket resulterar i en tidskrävande och till synes "fast" begäran. Observera också att meddelandeinnehållet kan vara delvis avskuret om finish_reason="length" , vilket indikerar att genereringen överskreds max_tokens eller konversationen överskred den maximala kontextlängden. |
Nej | |
frö | integer | Den här funktionen finns i Beta. Om det anges gör vårt system bästa för att sampla deterministiskt, så att upprepade begäranden med samma seed och parametrar ska returnera samma resultat.Determinism är inte garanterad och du bör referera till svarsparametern system_fingerprint för att övervaka ändringar i serverdelen. |
Nej | |
verktyg | matris | En lista över verktyg som modellen kan anropa. För närvarande stöds endast funktioner som ett verktyg. Använd detta för att ange en lista över funktioner som modellen kan generera JSON-indata för. Högst 128 funktioner stöds. |
Nej | |
tool_choice | chatCompletionToolChoiceOption | Styr vilket (om något) verktyg som anropas av modellen. none innebär att modellen inte anropar något verktyg och i stället genererar ett meddelande. auto innebär att modellen kan välja mellan att generera ett meddelande eller anropa ett eller flera verktyg. required innebär att modellen måste anropa ett eller flera verktyg. Att ange ett visst verktyg via {"type": "function", "function": {"name": "my_function"}} tvingar modellen att anropa verktyget. none är standard när inga verktyg finns. auto är standardvärdet om det finns verktyg. |
Nej | |
function_call | string eller chatCompletionFunctionCallOption | Inaktuell till förmån för tool_choice .Styr vilken (om någon) funktion som anropas av modellen. none innebär att modellen inte anropar en funktion och i stället genererar ett meddelande.auto innebär att modellen kan välja mellan att generera ett meddelande eller anropa en funktion.Om du anger en viss funktion via {"name": "my_function"} tvingar modellen att anropa den funktionen.none är standard när det inte finns några funktioner. auto är standardvärdet om det finns funktioner. |
Nej | |
functions | matris | Inaktuell till förmån för tools .En lista över funktioner som modellen kan generera JSON-indata för. |
Nej |
Svar
Statuskod: 200
Beskrivning: OK
Innehållstyp | Typ | Beskrivning |
---|---|---|
application/json | createChatCompletionResponse eller createChatCompletionStreamResponse |
Statuskod: standard
Beskrivning: Tjänsten är inte tillgänglig
Innehållstyp | Typ | Beskrivning |
---|---|---|
application/json | errorResponse |
Exempel
Exempel
Skapar ett slutförande för den angivna prompten, parametrarna och den valda modellen.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Svar: Statuskod: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exempel
Skapar ett slutförande baserat på Azure Search-data och systemtilldelad hanterad identitet.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Svar: Statuskod: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exempel
Skapar ett slutförande baserat på Azure Search-vektordata, tidigare assistentmeddelande och användartilldelad hanterad identitet.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Svar: Statuskod: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exempel
Skapar ett slutförande för den angivna Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Svar: Statuskod: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkriptioner – Skapa
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transkriberar ljud till indataspråket.
URI-parametrar
Name | I | Obligatoriskt | Type | Beskrivning |
---|---|---|---|---|
slutpunkt | path | Ja | sträng URL |
Azure OpenAI-slutpunkter som stöds (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com . Ersätt "aoairesource" med ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Ja | sträng | Distributions-ID för viskningsmodellen. |
api-version | query | Ja | sträng | API-version |
Begärandehuvud
Namn | Obligatoriskt | Type | Beskrivning |
---|---|---|---|
api-key | Sant | sträng | Ange Azure OpenAI API-nyckel här |
Begärandetext
Innehållstyp: flera delar/formulärdata
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
fil | sträng | Ljudfilsobjektet som ska transkriberas. | Ja | |
snabb | sträng | En valfri text som vägleder modellens formatmall eller fortsätter med ett tidigare ljudsegment. Uppmaningen ska matcha ljudspråket. | Nej | |
response_format | audioResponseFormat | Definierar formatet för utdata. | Nej | |
temperatur | Nummer | Provtagningstemperaturen, mellan 0 och 1. Högre värden som 0,8 gör utdata mer slumpmässiga, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Om värdet är 0 använder modellen loggsannolikhet för att automatiskt öka temperaturen tills vissa tröskelvärden uppnås. | Nej | 0 |
språk | string | Språket för indataljudet. Om du anger indataspråket i ISO-639-1-format förbättras noggrannheten och svarstiden. | Nej |
Svar
Statuskod: 200
Beskrivning: OK
Innehållstyp | Typ | Beskrivning |
---|---|---|
application/json | audioResponse eller audioVerboseResponse | |
text/plain | sträng | Transkriberad text i utdataformatet (när response_format var en text, vtt eller srt). |
Exempel
Exempel
Hämtar transkriberad text och associerade metadata från angivna talade ljuddata.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Svar: Statuskod: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exempel
Hämtar transkriberad text och associerade metadata från angivna talade ljuddata.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Svar: Statuskod: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Översättningar – Skapa
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transkriberar och översätter indataljud till engelsk text.
URI-parametrar
Name | I | Obligatoriskt | Type | Beskrivning |
---|---|---|---|---|
slutpunkt | path | Ja | sträng URL |
Azure OpenAI-slutpunkter som stöds (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com . Ersätt "aoairesource" med ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Ja | sträng | Distributions-ID för viskningsmodellen som distribuerades. |
api-version | query | Ja | sträng | API-version |
Begärandehuvud
Namn | Obligatoriskt | Type | Beskrivning |
---|---|---|---|
api-key | Sant | sträng | Ange Azure OpenAI API-nyckel här |
Begärandetext
Innehållstyp: flera delar/formulärdata
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
fil | sträng | Ljudfilen som ska översättas. | Ja | |
snabb | sträng | En valfri text som vägleder modellens formatmall eller fortsätter med ett tidigare ljudsegment. Uppmaningen ska vara på engelska. | Nej | |
response_format | audioResponseFormat | Definierar formatet för utdata. | Nej | |
temperatur | Nummer | Provtagningstemperaturen, mellan 0 och 1. Högre värden som 0,8 gör utdata mer slumpmässiga, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Om värdet är 0 använder modellen loggsannolikhet för att automatiskt öka temperaturen tills vissa tröskelvärden uppnås. | Nej | 0 |
Svar
Statuskod: 200
Beskrivning: OK
Innehållstyp | Typ | Beskrivning |
---|---|---|
application/json | audioResponse eller audioVerboseResponse | |
text/plain | sträng | Transkriberad text i utdataformatet (när response_format var en text, vtt eller srt). |
Exempel
Exempel
Hämtar engelskspråkig transkriberad text och associerade metadata från angivna talade ljuddata.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Svar: Statuskod: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exempel
Hämtar engelskspråkig transkriberad text och associerade metadata från angivna talade ljuddata.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Svar: Statuskod: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Bildgenerering
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Genererar en batch med bilder från en texttext på en viss dall-e-modelldistribution
URI-parametrar
Name | I | Obligatoriskt | Type | Beskrivning |
---|---|---|---|---|
slutpunkt | path | Ja | sträng URL |
Azure OpenAI-slutpunkter som stöds (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com . Ersätt "aoairesource" med ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Ja | sträng | Distributions-ID för den dall-e-modell som distribuerades. |
api-version | query | Ja | sträng | API-version |
Begärandehuvud
Namn | Obligatoriskt | Type | Beskrivning |
---|---|---|---|
api-key | Sant | sträng | Ange Azure OpenAI API-nyckel här |
Begärandetext
Innehållstyp: program/json
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
snabb | sträng | En textbeskrivning av de önskade bilderna. Den maximala längden är 4 000 tecken. | Ja | |
n | integer | Antalet bilder som ska genereras. | Nej | 1 |
storlek | imageSize | Storleken på de genererade bilderna. | Nej | 1 024 × 1 024 |
response_format | imagesResponseFormat | Formatet där de genererade bilderna returneras. | Nej | URL |
användare | sträng | En unik identifierare som representerar slutanvändaren, som kan hjälpa till att övervaka och upptäcka missbruk. | Nej | |
kvalitet | imageQuality | Kvaliteten på den bild som ska genereras. | Nej | standard |
style | imageStyle | Formatmallen för de genererade bilderna. | Nej | levande |
Svar
Statuskod: 200
Beskrivning: Ok
Innehållstyp | Typ | Beskrivning |
---|---|---|
application/json | generateImagesResponse |
Statuskod: standard
Beskrivning: Ett fel uppstod.
Innehållstyp | Typ | Beskrivning |
---|---|---|
application/json | dalleErrorResponse |
Exempel
Exempel
Skapar avbildningar med en uppmaning.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Svar: Statuskod: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Komponenter
errorResponse
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
fel | fel | Nej |
errorBase
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
kod | string | Nej | ||
meddelande | sträng | Nej |
fel
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
Param | sträng | Nej | ||
type | sträng | Nej | ||
inner_error | innerError | Inre fel med ytterligare information. | Nej |
innerError
Inre fel med ytterligare information.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
kod | innerErrorCode | Felkoder för det inre felobjektet. | Nej | |
content_filter_results | contentFilterPromptResults | Information om innehållsfiltreringskategorin (hat, sexuellt, våld, self_harm), om det har upptäckts, samt allvarlighetsnivån (very_low, låg, medelhög, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har identifierats och om det har filtrerats eller inte. Och information om kundens blocklista, om den har filtrerats och dess ID. | Nej |
innerErrorCode
Felkoder för det inre felobjektet.
Beskrivning: Felkoder för det inre felobjektet.
Typ: sträng
Standard:
Uppräkningsnamn: InnerErrorCode
Uppräkningsvärden:
Värde | beskrivning |
---|---|
ResponsibleAIPolicyViolation | Uppmaningen bröt mot en av fler regler för innehållsfilter. |
dalleErrorResponse
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
fel | dalleError | Nej |
dalleError
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
Param | sträng | Nej | ||
type | sträng | Nej | ||
inner_error | dalleInnerError | Inre fel med ytterligare information. | Nej |
dalleInnerError
Inre fel med ytterligare information.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
kod | innerErrorCode | Felkoder för det inre felobjektet. | Nej | |
content_filter_results | dalleFilterResults | Information om innehållsfiltreringskategorin (hat, sexuellt, våld, self_harm), om det har upptäckts, samt allvarlighetsnivån (very_low, låg, medelhög, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har identifierats och om det har filtrerats eller inte. Och information om kundens blocklista, om den har filtrerats och dess ID. | Nej | |
revised_prompt | sträng | Uppmaningen som användes för att generera avbildningen, om det fanns någon revision av prompten. | Nej |
contentFilterResultBase
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
filtrerad | boolean | Ja |
contentFilterSeverityResult
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
filtrerad | boolean | Ja | ||
allvarlighetsgrad | sträng | Nej |
contentFilterDetectedResult
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
filtrerad | boolean | Ja | ||
Upptäckt | boolean | Nej |
contentFilterDetectedWithCitationResult
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
citat | objekt | Nej |
Egenskaper för källhänvisning
webbadress
Namn | Type | Beskrivning | Standard |
---|---|---|---|
webbadress | sträng |
licens
Namn | Type | Beskrivning | Standard |
---|---|---|---|
licens | sträng |
contentFilterResultsBase
Information om resultatet av innehållsfiltreringen.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
sexuell | contentFilterSeverityResult | Nej | ||
våld | contentFilterSeverityResult | Nej | ||
hata | contentFilterSeverityResult | Nej | ||
self_harm | contentFilterSeverityResult | Nej | ||
Svordomar | contentFilterDetectedResult | Nej | ||
fel | errorBase | Nej |
contentFilterPromptResults
Information om innehållsfiltreringskategorin (hat, sexuellt, våld, self_harm), om det har upptäckts, samt allvarlighetsnivån (very_low, låg, medelhög, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har identifierats och om det har filtrerats eller inte. Och information om kundens blocklista, om den har filtrerats och dess ID.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
sexuell | contentFilterSeverityResult | Nej | ||
våld | contentFilterSeverityResult | Nej | ||
hata | contentFilterSeverityResult | Nej | ||
self_harm | contentFilterSeverityResult | Nej | ||
Svordomar | contentFilterDetectedResult | Nej | ||
fel | errorBase | Nej | ||
Jailbreak | contentFilterDetectedResult | Nej |
contentFilterChoiceResults
Information om innehållsfiltreringskategorin (hat, sexuellt, våld, self_harm), om det har upptäckts, samt allvarlighetsnivån (very_low, låg, medelhög, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om text från tredje part och svordomar, om den har identifierats och om den har filtrerats eller inte. Och information om kundens blocklista, om den har filtrerats och dess ID.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
sexuell | contentFilterSeverityResult | Nej | ||
våld | contentFilterSeverityResult | Nej | ||
hata | contentFilterSeverityResult | Nej | ||
self_harm | contentFilterSeverityResult | Nej | ||
Svordomar | contentFilterDetectedResult | Nej | ||
fel | errorBase | Nej | ||
protected_material_text | contentFilterDetectedResult | Nej | ||
protected_material_code | contentFilterDetectedWithCitationResult | Nej |
promptFilterResult
Resultat av innehållsfiltrering för en enda fråga i begäran.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
prompt_index | integer | Nej | ||
content_filter_results | contentFilterPromptResults | Information om innehållsfiltreringskategorin (hat, sexuellt, våld, self_harm), om det har upptäckts, samt allvarlighetsnivån (very_low, låg, medelhög, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har identifierats och om det har filtrerats eller inte. Och information om kundens blocklista, om den har filtrerats och dess ID. | Nej |
promptFilterResults
Innehållsfiltreringsresultat för noll eller fler frågor i begäran. I en strömningsbegäran kan resultat för olika frågor komma vid olika tidpunkter eller i olika beställningar.
Inga egenskaper har definierats för den här komponenten.
dalleContentFilterResults
Information om resultatet av innehållsfiltreringen.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
sexuell | contentFilterSeverityResult | Nej | ||
våld | contentFilterSeverityResult | Nej | ||
hata | contentFilterSeverityResult | Nej | ||
self_harm | contentFilterSeverityResult | Nej |
dalleFilterResults
Information om innehållsfiltreringskategorin (hat, sexuellt, våld, self_harm), om det har upptäckts, samt allvarlighetsnivån (very_low, låg, medelhög, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har identifierats och om det har filtrerats eller inte. Och information om kundens blocklista, om den har filtrerats och dess ID.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
sexuell | contentFilterSeverityResult | Nej | ||
våld | contentFilterSeverityResult | Nej | ||
hata | contentFilterSeverityResult | Nej | ||
self_harm | contentFilterSeverityResult | Nej | ||
Svordomar | contentFilterDetectedResult | Nej | ||
Jailbreak | contentFilterDetectedResult | Nej |
chatCompletionsRequestCommon
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
temperatur | Nummer | Vilken samplingstemperatur som ska användas, mellan 0 och 2. Högre värden som 0,8 gör utdata mer slumpmässiga, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Vi rekommenderar vanligtvis att du ändrar detta eller top_p men inte båda. |
Nej | 1 |
top_p | Nummer | Ett alternativ till sampling med temperatur, som kallas kärnsampling, där modellen tar hänsyn till resultatet av token med top_p sannolikhetsmassa. Så 0,1 innebär att endast token som består av den översta 10 % sannolikhetsmassan beaktas. Vi rekommenderar vanligtvis att du ändrar detta eller temperature men inte båda. |
Nej | 1 |
ström | boolean | Om det anges skickas delvisa meddelandedelta, till exempel i ChatGPT. Token skickas som serverutsända händelser endast för data när de blir tillgängliga, och strömmen avslutas av ett data: [DONE] meddelande. |
Nej | Falsk |
Stanna | sträng eller matris | Upp till fyra sekvenser där API:et slutar generera ytterligare token. | Nej | |
max_tokens | integer | Det maximala antalet token som tillåts för det genererade svaret. Som standard är antalet token som modellen kan returnera (4096 – prompttoken). Det här värdet är nu inaktuellt till förmån max_completion_tokens för , och är inte kompatibelt med o1-seriemodeller. |
Nej | 4096 |
max_completion_tokens | integer | En övre gräns för antalet token som kan genereras för en slutförande, inklusive synliga utdatatoken och resonemangstoken. | Nej | |
presence_penalty | Nummer | Tal mellan -2.0 och 2.0. Positiva värden straffar nya token baserat på om de visas i texten hittills, vilket ökar modellens sannolikhet att prata om nya ämnen. | Nej | 0 |
frequency_penalty | Nummer | Tal mellan -2.0 och 2.0. Positiva värden straffar nya token baserat på deras befintliga frekvens i texten hittills, vilket minskar modellens sannolikhet att upprepa samma rad ordagrant. | Nej | 0 |
logit_bias | objekt | Ändra sannolikheten för att angivna token visas i slutförandet. Accepterar ett json-objekt som mappar token (som anges av deras token-ID i tokenizern) till ett associerat bias-värde från -100 till 100. Matematiskt läggs biasen till i de logits som genereras av modellen före sampling. Den exakta effekten varierar per modell, men värden mellan -1 och 1 bör minska eller öka sannolikheten för val. värden som -100 eller 100 bör resultera i ett förbud eller exklusivt val av relevant token. | Nej | |
användare | sträng | En unik identifierare som representerar slutanvändaren, vilket kan hjälpa Azure OpenAI att övervaka och upptäcka missbruk. | Nej |
createCompletionRequest
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
snabb | sträng eller matris | Uppmaningen att generera slutföranden för, kodade som en sträng, matris med strängar, matris med token eller matris med tokenmatriser. Observera att <|endoftext|> är dokumentavgränsaren som modellen ser under träningen, så om en fråga inte anges genereras modellen som från början av ett nytt dokument. |
Ja | |
best_of | integer | Genererar best_of slutföranden på serversidan och returnerar den "bästa" (den med högsta loggens sannolikhet per token). Resultat kan inte strömmas.När det används med n kontrollerar best_of du antalet kandidatavslut och n anger hur många som ska returneras â€" best_of måste vara större än n .Obs! Eftersom den här parametern genererar många slutföranden kan den snabbt förbruka din tokenkvot. Använd noggrant och se till att du har rimliga inställningar för max_tokens och stop . |
Nej | 1 |
eko | boolean | Upprepa uppmaningen utöver slutförandet |
Nej | Falsk |
frequency_penalty | Nummer | Tal mellan -2.0 och 2.0. Positiva värden straffar nya token baserat på deras befintliga frekvens i texten hittills, vilket minskar modellens sannolikhet att upprepa samma rad ordagrant. |
Nej | 0 |
logit_bias | objekt | Ändra sannolikheten för att angivna token visas i slutförandet. Accepterar ett JSON-objekt som mappar token (anges av deras token-ID i GPT-tokenizern) till ett associerat bias-värde från -100 till 100. Matematiskt läggs biasen till i de logits som genereras av modellen före sampling. Den exakta effekten varierar per modell, men värden mellan -1 och 1 bör minska eller öka sannolikheten för val. värden som -100 eller 100 bör resultera i ett förbud eller exklusivt val av relevant token. Du kan till exempel skicka {"50256": -100} för att förhindra <att token |endoftext|> genereras. |
Nej | Ingen |
logprobs | integer | Inkludera loggannolikheterna på de logprobs mest sannolika utdatatoken, samt de valda token. Om logprobs det till exempel är 5 returnerar API:et en lista över de fem mest sannolika token. API:et logprob returnerar alltid den samplade token, så det kan finnas upp till logprobs+1 element i svaret.Det maximala värdet för logprobs är 5. |
Nej | Ingen |
max_tokens | integer | Det maximala antalet token som kan genereras i slutförandet. Tokenantalet för din fråga plus max_tokens får inte överskrida modellens kontextlängd. |
Nej | 16 |
n | integer | Hur många slutföranden som ska genereras för varje fråga. Obs! Eftersom den här parametern genererar många slutföranden kan den snabbt förbruka din tokenkvot. Använd noggrant och se till att du har rimliga inställningar för max_tokens och stop . |
Nej | 1 |
presence_penalty | Nummer | Tal mellan -2.0 och 2.0. Positiva värden straffar nya token baserat på om de visas i texten hittills, vilket ökar modellens sannolikhet att prata om nya ämnen. |
Nej | 0 |
frö | integer | Om det anges gör vårt system bästa för att sampla deterministiskt, så att upprepade begäranden med samma seed och parametrar ska returnera samma resultat.Determinism är inte garanterad och du bör referera till svarsparametern system_fingerprint för att övervaka ändringar i serverdelen. |
Nej | |
Stanna | sträng eller matris | Upp till fyra sekvenser där API:et slutar generera ytterligare token. Den returnerade texten innehåller inte stoppsekvensen. |
Nej | |
ström | boolean | Om du vill strömma tillbaka partiella förlopp. Om det anges skickas token som databaserade serverutskickade händelser när de blir tillgängliga, och strömmen avslutas av ett data: [DONE] meddelande. |
Nej | Falsk |
suffix | sträng | Suffixet som kommer efter att infogad text har slutförts. Den här parametern stöds endast för gpt-3.5-turbo-instruct . |
Nej | Ingen |
temperatur | Nummer | Vilken samplingstemperatur som ska användas, mellan 0 och 2. Högre värden som 0,8 gör utdata mer slumpmässiga, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Vi rekommenderar vanligtvis att du ändrar detta eller top_p men inte båda. |
Nej | 1 |
top_p | Nummer | Ett alternativ till sampling med temperatur, som kallas kärnsampling, där modellen tar hänsyn till resultatet av token med top_p sannolikhetsmassa. Så 0,1 innebär att endast token som består av den översta 10 % sannolikhetsmassan beaktas. Vi rekommenderar vanligtvis att du ändrar detta eller temperature men inte båda. |
Nej | 1 |
användare | sträng | En unik identifierare som representerar slutanvändaren, som kan hjälpa till att övervaka och upptäcka missbruk. |
Nej |
createCompletionResponse
Representerar ett slutförandesvar från API:et. Obs! Både strömmade och icke-strömmade svarsobjekt har samma form (till skillnad från chattslutpunkten).
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
id | sträng | En unik identifierare för slutförandet. | Ja | |
Val | matris | Listan över slutförandeval som modellen genererade för indataprompten. | Ja | |
skapad | integer | Unix-tidsstämpeln (i sekunder) för när slutförandet skapades. | Ja | |
modell | sträng | Den modell som används för slutförande. | Ja | |
prompt_filter_results | promptFilterResults | Innehållsfiltreringsresultat för noll eller fler frågor i begäran. I en strömningsbegäran kan resultat för olika frågor komma vid olika tidpunkter eller i olika beställningar. | Nej | |
system_fingerprint | sträng | Det här fingeravtrycket representerar serverdelskonfigurationen som modellen körs med. Kan användas tillsammans med parametern seed för begäran för att förstå när serverdelsändringar har gjorts som kan påverka determinismen. |
Nej | |
objekt | uppräkning | Objekttypen, som alltid är "text_completion" Möjliga värden: text_completion |
Ja | |
användning | completionUsage | Användningsstatistik för slutförandebegäran. | Nej |
createChatCompletionRequest
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
temperatur | Nummer | Vilken samplingstemperatur som ska användas, mellan 0 och 2. Högre värden som 0,8 gör utdata mer slumpmässiga, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Vi rekommenderar vanligtvis att du ändrar detta eller top_p men inte båda. |
Nej | 1 |
top_p | Nummer | Ett alternativ till sampling med temperatur, som kallas kärnsampling, där modellen tar hänsyn till resultatet av token med top_p sannolikhetsmassa. Så 0,1 innebär att endast token som består av den översta 10 % sannolikhetsmassan beaktas. Vi rekommenderar vanligtvis att du ändrar detta eller temperature men inte båda. |
Nej | 1 |
ström | boolean | Om det anges skickas delvisa meddelandedelta, till exempel i ChatGPT. Token skickas som serverutsända händelser endast för data när de blir tillgängliga, och strömmen avslutas av ett data: [DONE] meddelande. |
Nej | Falsk |
Stanna | sträng eller matris | Upp till fyra sekvenser där API:et slutar generera ytterligare token. |
Nej | |
max_tokens | integer | Det maximala antalet token som kan genereras i chattens slutförande. Den totala längden på indatatoken och genererade token begränsas av modellens kontextlängd. |
Nej | |
max_completion_tokens | integer | En övre gräns för antalet token som kan genereras för en slutförande, inklusive synliga utdatatoken och resonemangstoken. | Nej | |
presence_penalty | Nummer | Tal mellan -2.0 och 2.0. Positiva värden straffar nya token baserat på om de visas i texten hittills, vilket ökar modellens sannolikhet att prata om nya ämnen. |
Nej | 0 |
frequency_penalty | Nummer | Tal mellan -2.0 och 2.0. Positiva värden straffar nya token baserat på deras befintliga frekvens i texten hittills, vilket minskar modellens sannolikhet att upprepa samma rad ordagrant. |
Nej | 0 |
logit_bias | objekt | Ändra sannolikheten för att angivna token visas i slutförandet. Accepterar ett JSON-objekt som mappar token (som anges av deras token-ID i tokenizern) till ett associerat bias-värde från -100 till 100. Matematiskt läggs biasen till i de logits som genereras av modellen före sampling. Den exakta effekten varierar per modell, men värden mellan -1 och 1 bör minska eller öka sannolikheten för val. värden som -100 eller 100 bör resultera i ett förbud eller exklusivt val av relevant token. |
Nej | Ingen |
användare | sträng | En unik identifierare som representerar slutanvändaren, som kan hjälpa till att övervaka och upptäcka missbruk. |
Nej | |
meddelanden | matris | En lista över meddelanden som består av konversationen hittills. | Ja | |
data_sources | matris | Konfigurationsposterna för Azure OpenAI-chatttillägg som använder dem. Den här ytterligare specifikationen är endast kompatibel med Azure OpenAI. |
Nej | |
logprobs | boolean | Om du vill returnera loggannolikheter för utdatatoken eller inte. Om sant returnerar loggannolikerna för varje utdatatoken som returneras i content i message . |
Nej | Falsk |
top_logprobs | integer | Ett heltal mellan 0 och 20 som anger antalet mest sannolika token som ska returneras vid varje tokenposition, var och en med en associerad loggsannolikhet. logprobs måste anges till true om den här parametern används. |
Nej | |
n | integer | Hur många alternativ för chattavslut som ska genereras för varje indatameddelande. Observera att du debiteras baserat på antalet genererade token i alla alternativ. Behåll n för 1 att minimera kostnaderna. |
Nej | 1 |
parallel_tool_calls | ParallelToolCalls | Om du vill aktivera parallell funktionsanrop under verktygsanvändning. | Nej | Sann |
response_format | ResponseFormatText eller ResponseFormatJsonObject eller ResponseFormatJsonSchema | Ett objekt som anger det format som modellen måste mata ut. Kompatibel med GPT-4o, GPT-4o mini, GPT-4 Turbo och alla GPT-3.5 Turbo modeller nyare än gpt-3.5-turbo-1106 .Inställning för att { "type": "json_schema", "json_schema": {...} } aktivera strukturerade utdata som garanterar att modellen matchar ditt angivna JSON-schema.Inställningen för att { "type": "json_object" } aktivera JSON-läge, vilket garanterar att meddelandet som modellen genererar är giltigt JSON.Viktigt: När du använder JSON-läge måste du också instruera modellen att skapa JSON själv via ett system- eller användarmeddelande. Utan detta kan modellen generera en avaktiverande ström av blanksteg tills genereringen når tokengränsen, vilket resulterar i en tidskrävande och till synes "fast" begäran. Observera också att meddelandeinnehållet kan vara delvis avskuret om finish_reason="length" , vilket indikerar att genereringen överskreds max_tokens eller konversationen överskred den maximala kontextlängden. |
Nej | |
frö | integer | Den här funktionen finns i Beta. Om det anges gör vårt system bästa för att sampla deterministiskt, så att upprepade begäranden med samma seed och parametrar ska returnera samma resultat.Determinism är inte garanterad och du bör referera till svarsparametern system_fingerprint för att övervaka ändringar i serverdelen. |
Nej | |
verktyg | matris | En lista över verktyg som modellen kan anropa. För närvarande stöds endast funktioner som ett verktyg. Använd detta för att ange en lista över funktioner som modellen kan generera JSON-indata för. Högst 128 funktioner stöds. |
Nej | |
tool_choice | chatCompletionToolChoiceOption | Styr vilket (om något) verktyg som anropas av modellen. none innebär att modellen inte anropar något verktyg och i stället genererar ett meddelande. auto innebär att modellen kan välja mellan att generera ett meddelande eller anropa ett eller flera verktyg. required innebär att modellen måste anropa ett eller flera verktyg. Att ange ett visst verktyg via {"type": "function", "function": {"name": "my_function"}} tvingar modellen att anropa verktyget. none är standard när inga verktyg finns. auto är standardvärdet om det finns verktyg. |
Nej | |
function_call | string eller chatCompletionFunctionCallOption | Inaktuell till förmån för tool_choice .Styr vilken (om någon) funktion som anropas av modellen. none innebär att modellen inte anropar en funktion och i stället genererar ett meddelande.auto innebär att modellen kan välja mellan att generera ett meddelande eller anropa en funktion.Om du anger en viss funktion via {"name": "my_function"} tvingar modellen att anropa den funktionen.none är standard när det inte finns några funktioner. auto är standardvärdet om det finns funktioner. |
Nej | |
functions | matris | Inaktuell till förmån för tools .En lista över funktioner som modellen kan generera JSON-indata för. |
Nej |
chatCompletionFunctions
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
description | sträng | En beskrivning av vad funktionen gör, som används av modellen för att välja när och hur funktionen ska anropas. | Nej | |
name | sträng | Namnet på den funktion som ska anropas. Måste vara a-z, A-Z, 0-9, eller innehålla understreck och bindestreck, med en maximal längd på 64. | Ja | |
parametrar | FunctionParameters | Parametrarna som funktionerna accepterar, som beskrivs som ett JSON-schemaobjekt. Se guiden för exempel och JSON-schemareferensen för dokumentation om formatet. Om du utelämnar parameters definieras en funktion med en tom parameterlista. |
Nej |
chatCompletionFunctionCallOption
Om du anger en viss funktion via {"name": "my_function"}
tvingar modellen att anropa den funktionen.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
name | sträng | Namnet på funktionen som ska anropas. | Ja |
chatCompletionRequestMessage
Den här komponenten kan vara något av följande:
chatCompletionRequestSystemMessage
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
innehåll | sträng eller matris | Innehållet i systemmeddelandet. | Ja | |
roll | uppräkning | Rollen som meddelandenas författare, i det här fallet system .Möjliga värden: system |
Ja | |
namn | sträng | Ett valfritt namn för deltagaren. Tillhandahåller modellinformation för att skilja mellan deltagare med samma roll. | Nej |
chatCompletionRequestUserMessage
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
innehåll | sträng eller matris | Innehållet i användarmeddelandet. |
Ja | |
roll | uppräkning | Rollen som meddelandenas författare, i det här fallet user .Möjliga värden: användare |
Ja | |
namn | sträng | Ett valfritt namn för deltagaren. Tillhandahåller modellinformation för att skilja mellan deltagare med samma roll. | Nej |
chatCompletionRequestAssistantMessage
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
innehåll | sträng eller matris | Innehållet i assistentmeddelandet. Krävs om inte tool_calls eller function_call anges. |
Nej | |
vägran | sträng | Assistentens avslagsmeddelande. | Nej | |
roll | uppräkning | Rollen som meddelandenas författare, i det här fallet assistant .Möjliga värden: assistent |
Ja | |
namn | sträng | Ett valfritt namn för deltagaren. Tillhandahåller modellinformation för att skilja mellan deltagare med samma roll. | Nej | |
tool_calls | chatCompletionMessageToolCalls | Verktyget anropar som genereras av modellen, till exempel funktionsanrop. | Nej | |
function_call | objekt | Inaktuell och ersatt av tool_calls . Namnet och argumenten för en funktion som ska anropas, som genereras av modellen. |
Nej |
Egenskaper för function_call
Argument
Namn | Type | Beskrivning | Standard |
---|---|---|---|
Argument | sträng | Argumenten för att anropa funktionen med, som genereras av modellen i JSON-format. Observera att modellen inte alltid genererar giltig JSON och kan generera parametrar som inte definierats av funktionsschemat. Verifiera argumenten i koden innan du anropar funktionen. |
name
Namn | Type | Beskrivning | Standard |
---|---|---|---|
name | sträng | Namnet på funktionen som ska anropas. |
chatCompletionRequestToolMessage
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
roll | uppräkning | Rollen som meddelandenas författare, i det här fallet tool .Möjliga värden: verktyg |
Ja | |
innehåll | sträng eller matris | Innehållet i verktygsmeddelandet. | Ja | |
tool_call_id | sträng | Verktygsanrop som det här meddelandet svarar på. | Ja |
chatCompletionRequestFunctionMessage
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
roll | uppräkning | Rollen som meddelandenas författare, i det här fallet function .Möjliga värden: funktion |
Ja | |
innehåll | sträng | Innehållet i funktionsmeddelandet. | Ja | |
namn | sträng | Namnet på funktionen som ska anropas. | Ja |
chatCompletionRequestSystemMessageContentPart
Den här komponenten kan vara något av följande:
chatCompletionRequestUserMessageContentPart
Den här komponenten kan vara något av följande:
chatCompletionRequestAssistantMessageContentPart
Den här komponenten kan vara något av följande:
chatCompletionRequestToolMessageContentPart
Den här komponenten kan vara något av följande:
chatCompletionRequestMessageContentPartText
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | uppräkning | Typ av innehållsdel. Möjliga värden: text |
Ja | |
text | sträng | Textinnehållet. | Ja |
chatCompletionRequestMessageContentPartImage
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | uppräkning | Typ av innehållsdel. Möjliga värden: image_url |
Ja | |
image_url | objekt | Ja |
Egenskaper för image_url
URL
Namn | Type | Beskrivning | Standard |
---|---|---|---|
URL | sträng | Antingen en URL för bilden eller base64-kodade bilddata. |
detalj
Namn | Type | Beskrivning | Standard |
---|---|---|---|
detalj | sträng | Anger detaljnivån för bilden. Läs mer i visionsguiden. | auto |
chatCompletionRequestMessageContentPartRefusal
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | uppräkning | Typ av innehållsdel. Möjliga värden: avslag |
Ja | |
vägran | sträng | Avslagsmeddelandet som genereras av modellen. | Ja |
azureChatExtensionConfiguration
En representation av konfigurationsdata för ett enda Azure OpenAI-chatttillägg. Detta används av en begäran om slutförande av chatten som ska använda Azure OpenAI-chatttillägg för att öka svarsbeteendet. Användningen av den här konfigurationen är endast kompatibel med Azure OpenAI.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | azureChatExtensionType | En representation av konfigurationsdata för ett enda Azure OpenAI-chatttillägg. Detta kommer att användas av en chatt slutförandebegäran som ska använda Azure OpenAI-chatttillägg för att öka svarsbeteendet. Användningen av den här konfigurationen är endast kompatibel med Azure OpenAI. |
Ja |
azureChatExtensionType
En representation av konfigurationsdata för ett enda Azure OpenAI-chatttillägg. Detta används av en begäran om slutförande av chatten som ska använda Azure OpenAI-chatttillägg för att öka svarsbeteendet. Användningen av den här konfigurationen är endast kompatibel med Azure OpenAI.
Beskrivning: En representation av konfigurationsdata för ett enda Azure OpenAI-chatttillägg. Detta används av en begäran om slutförande av chatten som ska använda Azure OpenAI-chatttillägg för att öka svarsbeteendet. Användningen av den här konfigurationen är endast kompatibel med Azure OpenAI.
Typ: sträng
Standard:
Uppräkningsnamn: AzureChatExtensionType
Uppräkningsvärden:
Värde | beskrivning |
---|---|
azure_search | Representerar användningen av Azure Search som ett Azure OpenAI-chatttillägg. |
azure_cosmos_db | Representerar användningen av Azure Cosmos DB som ett Azure OpenAI-chatttillägg. |
azureSearchChatExtensionConfiguration
En specifik representation av konfigurerbara alternativ för Azure Search när du använder det som ett Azure OpenAI-chatttillägg.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | azureChatExtensionType | En representation av konfigurationsdata för ett enda Azure OpenAI-chatttillägg. Detta kommer att användas av en chatt slutförandebegäran som ska använda Azure OpenAI-chatttillägg för att öka svarsbeteendet. Användningen av den här konfigurationen är endast kompatibel med Azure OpenAI. |
Ja | |
parametrar | azureSearchChatExtensionParameters | Parametrar för Azure Search när de används som ett Azure OpenAI-chatttillägg. | Nej |
azureSearchChatExtensionParameters
Parametrar för Azure Search när de används som ett Azure OpenAI-chatttillägg.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
autentisering | onYourDataApiKeyAuthenticationOptions eller onYourDataSystemAssignedManagedIdentityAuthenticationOptions eller onYourDataUserAssignedManagedIdentityAuthenticationOptions | Ja | ||
top_n_documents | integer | Det konfigurerade högsta antalet dokument som ska användas för den konfigurerade frågan. | Nej | |
in_scope | boolean | Om frågor ska begränsas till användning av indexerade data. | Nej | |
strikthet | integer | Den konfigurerade strängheten för sökrelevansfiltreringen. Ju högre strikthet, desto högre precision men lägre återkallande av svaret. | Nej | |
role_information | sträng | Ge modellinstruktionerna om hur den ska bete sig och vilken kontext den ska referera till när du genererar ett svar. Du kan beskriva assistentens personlighet och berätta hur du formaterar svar. Det finns en gräns på 100 token för den och den räknas mot den totala tokengränsen. | Nej | |
slutpunkt | sträng | Den absoluta slutpunktssökvägen som Azure Search-resursen ska använda. | Ja | |
index_name | sträng | Namnet på indexet som ska användas som tillgängligt i den refererade Azure Search-resursen. | Ja | |
fields_mapping | azureSearchIndexFieldMappingOptions | Valfria inställningar för att styra hur fält bearbetas när du använder en konfigurerad Azure Search-resurs. | Nej | |
query_type | azureSearchQueryType | Den typ av Azure Search-hämtningsfråga som ska köras när du använder den som ett Azure OpenAI-chatttillägg. | Nej | |
semantic_configuration | sträng | Den ytterligare semantiska konfigurationen för frågan. | Nej | |
filter | sträng | Sökfilter. | Nej | |
embedding_dependency | onYourDataEndpointVectorizationSource eller onYourDataDeploymentNameVectorizationSource | Nej |
azureSearchIndexFieldMappingOptions
Valfria inställningar för att styra hur fält bearbetas när du använder en konfigurerad Azure Search-resurs.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
title_field | sträng | Namnet på det indexfält som ska användas som rubrik. | Nej | |
url_field | sträng | Namnet på det indexfält som ska användas som en URL. | Nej | |
filepath_field | sträng | Namnet på det indexfält som ska användas som en filsökväg. | Nej | |
content_fields | matris | Namnen på indexfält som ska behandlas som innehåll. | Nej | |
content_fields_separator | sträng | Det avgränsarmönster som innehållsfält ska använda. | Nej | |
vector_fields | matris | Namnen på fält som representerar vektordata. | Nej |
azureSearchQueryType
Den typ av Azure Search-hämtningsfråga som ska köras när du använder den som ett Azure OpenAI-chatttillägg.
Beskrivning: Den typ av Azure Search-hämtningsfråga som ska köras när du använder den som ett Azure OpenAI-chatttillägg.
Typ: sträng
Standard:
Uppräkningsnamn: AzureSearchQueryType
Uppräkningsvärden:
Värde | beskrivning |
---|---|
enkel | Representerar standard, enkel frågeparser. |
semantik- | Representerar den semantiska frågeparsern för avancerad semantisk modellering. |
vektor | Representerar vektorsökning över beräknade data. |
vector_simple_hybrid | Representerar en kombination av den enkla frågestrategin med vektordata. |
vector_semantic_hybrid | Representerar en kombination av semantisk sökning och vektordatafrågor. |
azureCosmosDBChatExtensionConfiguration
En specifik representation av konfigurerbara alternativ för Azure Cosmos DB när du använder det som ett Azure OpenAI-chatttillägg.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | azureChatExtensionType | En representation av konfigurationsdata för ett enda Azure OpenAI-chatttillägg. Detta kommer att användas av en chatt slutförandebegäran som ska använda Azure OpenAI-chatttillägg för att öka svarsbeteendet. Användningen av den här konfigurationen är endast kompatibel med Azure OpenAI. |
Ja | |
parametrar | azureCosmosDBChatExtensionParameters | Parametrar som ska användas när du konfigurerar Azure OpenAI på dina datachatttillägg när du använder Azure Cosmos DB för MongoDB vCore. |
Nej |
azureCosmosDBChatExtensionParameters
Parametrar som ska användas när du konfigurerar Azure OpenAI På dina datachatttillägg när du använder Azure Cosmos DB för MongoDB vCore.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
autentisering | onYourDataConnectionStringAuthenticationOptions | Autentiseringsalternativen för Azure OpenAI På dina data när du använder en anslutningssträng. | Ja | |
top_n_documents | integer | Det konfigurerade högsta antalet dokument som ska användas för den konfigurerade frågan. | Nej | |
in_scope | boolean | Om frågor ska begränsas till användning av indexerade data. | Nej | |
strikthet | integer | Den konfigurerade strängheten för sökrelevansfiltreringen. Ju högre strikthet, desto högre precision men lägre återkallande av svaret. | Nej | |
role_information | sträng | Ge modellinstruktionerna om hur den ska bete sig och vilken kontext den ska referera till när du genererar ett svar. Du kan beskriva assistentens personlighet och berätta hur du formaterar svar. Det finns en gräns på 100 token för den och den räknas mot den totala tokengränsen. | Nej | |
database_name | sträng | MongoDB vCore-databasnamnet som ska användas med Azure Cosmos DB. | Ja | |
container_name | sträng | Namnet på Azure Cosmos DB-resurscontainern. | Ja | |
index_name | sträng | MongoDB vCore-indexnamnet som ska användas med Azure Cosmos DB. | Ja | |
fields_mapping | azureCosmosDBFieldMappingOptions | Valfria inställningar för att styra hur fält bearbetas när du använder en konfigurerad Azure Cosmos DB-resurs. | Ja | |
embedding_dependency | onYourDataEndpointVectorizationSource eller onYourDataDeploymentNameVectorizationSource | Ja |
azureCosmosDBFieldMappingOptions
Valfria inställningar för att styra hur fält bearbetas när du använder en konfigurerad Azure Cosmos DB-resurs.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
title_field | sträng | Namnet på det indexfält som ska användas som rubrik. | Nej | |
url_field | sträng | Namnet på det indexfält som ska användas som en URL. | Nej | |
filepath_field | sträng | Namnet på det indexfält som ska användas som en filsökväg. | Nej | |
content_fields | matris | Namnen på indexfält som ska behandlas som innehåll. | Ja | |
content_fields_separator | sträng | Det avgränsarmönster som innehållsfält ska använda. | Nej | |
vector_fields | matris | Namnen på fält som representerar vektordata. | Ja |
onYourDataAuthenticationOptions
Autentiseringsalternativen för Azure OpenAI på dina data.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | onYourDataAuthenticationType | De autentiseringstyper som stöds med Azure OpenAI på dina data. | Ja |
onYourDataAuthenticationType
De autentiseringstyper som stöds med Azure OpenAI på dina data.
Beskrivning: De autentiseringstyper som stöds med Azure OpenAI på dina data.
Typ: sträng
Standard:
Uppräkningsnamn: OnYourDataAuthenticationType
Uppräkningsvärden:
Värde | beskrivning |
---|---|
api_key | Autentisering via API-nyckel. |
connection_string | Autentisering via anslutningssträng. |
system_assigned_managed_identity | Autentisering via systemtilldelad hanterad identitet. |
user_assigned_managed_identity | Autentisering via användartilldelad hanterad identitet. |
onYourDataApiKeyAuthenticationOptions
Autentiseringsalternativen för Azure OpenAI På dina data när du använder en API-nyckel.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | onYourDataAuthenticationType | De autentiseringstyper som stöds med Azure OpenAI på dina data. | Ja | |
nyckel | sträng | API-nyckeln som ska användas för autentisering. | Nej |
onYourDataConnectionStringAuthenticationOptions
Autentiseringsalternativen för Azure OpenAI På dina data när du använder en anslutningssträng.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | onYourDataAuthenticationType | De autentiseringstyper som stöds med Azure OpenAI på dina data. | Ja | |
connection_string | sträng | Den anslutningssträng som ska användas för autentisering. | Nej |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Autentiseringsalternativen för Azure OpenAI På dina data när du använder en systemtilldelad hanterad identitet.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | onYourDataAuthenticationType | De autentiseringstyper som stöds med Azure OpenAI på dina data. | Ja |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Autentiseringsalternativen för Azure OpenAI På dina data när du använder en användartilldelad hanterad identitet.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | onYourDataAuthenticationType | De autentiseringstyper som stöds med Azure OpenAI på dina data. | Ja | |
managed_identity_resource_id | sträng | Resurs-ID för den användartilldelade hanterade identitet som ska användas för autentisering. | Nej |
onYourDataVectorizationSource
En abstrakt representation av en vektoriseringskälla för Azure OpenAI På dina data med vektorsökning.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Representerar de tillgängliga källor som Azure OpenAI På dina data kan använda för att konfigurera vektorisering av data för användning med vektorsökning. |
Ja |
onYourDataVectorizationSourceType
Representerar de tillgängliga källor som Azure OpenAI On Your Data kan använda för att konfigurera vektorisering av data för användning med vektorsökning.
Beskrivning: Representerar tillgängliga källor som Azure OpenAI På dina data kan använda för att konfigurera vektorisering av data för användning med
vektorsökning.
Typ: sträng
Standard:
Uppräkningsnamn: OnYourDataVectorizationSourceType
Uppräkningsvärden:
Värde | beskrivning |
---|---|
slutpunkt | Representerar vektorisering som utförs av offentliga tjänstanrop till en Azure OpenAI-inbäddningsmodell. |
deployment_name | Representerar ett distributionsnamn för Ada-modellen som ska användas. Den här modelldistributionen måste finnas i samma Azure OpenAI-resurs, men På Dina data använder den här modelldistributionen via ett internt anrop i stället för ett offentligt, vilket möjliggör vektor även i privata nätverk. |
onYourDataDeploymentNameVectorizationSource
Information om en vektoriseringskälla som används av Azure OpenAI på dina data när du tillämpar vektorsökning, som baseras på ett internt namn på inbäddningsmodellens distributionsnamn i samma Azure OpenAI-resurs.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Representerar de tillgängliga källor som Azure OpenAI På dina data kan använda för att konfigurera vektorisering av data för användning med vektorsökning. |
Ja | |
deployment_name | sträng | Anger namnet på modelldistributionen som ska användas för vektorisering. Den här modelldistributionen måste finnas i samma Azure OpenAI-resurs, men På dina data använder den här modelldistributionen via ett internt anrop i stället för ett offentligt, vilket möjliggör vektorsökning även i privata nätverk. | Nej |
onYourDataEndpointVectorizationSource
Information om en vektoriseringskälla som används av Azure OpenAI På dina data när vektorsökning tillämpas, som baseras på ett offentligt Azure OpenAI-slutpunktsanrop för inbäddningar.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Representerar de tillgängliga källor som Azure OpenAI På dina data kan använda för att konfigurera vektorisering av data för användning med vektorsökning. |
Ja | |
autentisering | onYourDataApiKeyAuthenticationOptions | Autentiseringsalternativen för Azure OpenAI På dina data när du använder en API-nyckel. | Nej | |
slutpunkt | sträng | Anger slutpunkten som ska användas för vektorisering. Den här slutpunkten måste finnas i samma Azure OpenAI-resurs, men På dina data använder den här slutpunkten via ett internt anrop i stället för ett offentligt, vilket möjliggör vektorsökning även i privata nätverk. | Nej |
azureChatExtensionsMessageContext
En representation av den ytterligare kontextinformation som är tillgänglig när Azure OpenAI-chatttillägg ingår i genereringen av ett motsvarande svar om chattens slutförande. Den här kontextinformationen fylls bara i när du använder en Azure OpenAI-begäran som konfigurerats för att använda ett matchande tillägg.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
Citat | matris | Datakällans hämtningsresultat, som används för att generera assistentmeddelandet i svaret. | Nej | |
avsikt | sträng | Den identifierade avsikten från chatthistoriken, som används för att gå vidare till nästa tur för att överföra kontexten. | Nej |
citat
källhänvisningsinformation för ett svarsmeddelande om att chatten har slutförts.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
innehåll | sträng | Innehållet i källhänvisning. | Ja | |
rubrik | sträng | Rubriken på citatet. | Nej | |
URL | sträng | URL:en för källhänvisning. | Nej | |
filepath | sträng | Filsökvägen för källhänvisning. | Nej | |
chunk_id | sträng | Citatets segment-ID. | Nej |
chatCompletionMessageToolCall
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
id | sträng | ID:t för verktygsanropet. | Ja | |
type | toolCallType | Typ av verktygsanrop, i det här fallet function . |
Ja | |
function | objekt | Den funktion som modellen anropade. | Ja |
Egenskaper för funktionen
name
Namn | Type | Beskrivning | Standard |
---|---|---|---|
name | sträng | Namnet på funktionen som ska anropas. |
Argument
Namn | Type | Beskrivning | Standard |
---|---|---|---|
Argument | sträng | Argumenten för att anropa funktionen med, som genereras av modellen i JSON-format. Observera att modellen inte alltid genererar giltig JSON och kan generera parametrar som inte definierats av funktionsschemat. Verifiera argumenten i koden innan du anropar funktionen. |
toolCallType
Typ av verktygsanrop, i det här fallet function
.
Beskrivning: Typ av verktygsanrop, i det här fallet function
.
Typ: sträng
Standard:
Uppräkningsnamn: ToolCallType
Uppräkningsvärden:
Värde | beskrivning |
---|---|
function | Verktygsanropstypen är funktion. |
chatCompletionRequestMessageTool
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
tool_call_id | sträng | Verktygsanrop som det här meddelandet svarar på. | Nej | |
innehåll | sträng | Innehållet i meddelandet. | Nej |
chatCompletionRequestMessageFunction
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
roll | uppräkning | Rollen som meddelandenas författare, i det här fallet function .Möjliga värden: funktion |
Nej | |
name | sträng | Innehållet i meddelandet. | Nej | |
innehåll | sträng | Innehållet i meddelandet. | Nej |
createChatCompletionResponse
Representerar ett svar för chattens slutförande som returneras av modellen, baserat på de angivna indata.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
id | sträng | En unik identifierare för chattens slutförande. | Ja | |
prompt_filter_results | promptFilterResults | Innehållsfiltreringsresultat för noll eller fler frågor i begäran. I en strömningsbegäran kan resultat för olika frågor komma vid olika tidpunkter eller i olika beställningar. | Nej | |
Val | matris | En lista över alternativ för chattens slutförande. Kan vara mer än en om n är större än 1. |
Ja | |
skapad | integer | Unix-tidsstämpeln (i sekunder) för när chatten slutfördes skapades. | Ja | |
modell | sträng | Modellen som används för chattens slutförande. | Ja | |
system_fingerprint | sträng | Det här fingeravtrycket representerar serverdelskonfigurationen som modellen körs med. Kan användas tillsammans med parametern seed för begäran för att förstå när serverdelsändringar har gjorts som kan påverka determinismen. |
Nej | |
objekt | uppräkning | Objekttypen, som alltid chat.completion är .Möjliga värden: chat.completion |
Ja | |
användning | completionUsage | Användningsstatistik för slutförandebegäran. | Nej |
createChatCompletionStreamResponse
Representerar en strömmad del av ett chattsvar som returneras av modellen, baserat på angivna indata.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
id | sträng | En unik identifierare för chattens slutförande. Varje segment har samma ID. | Ja | |
Val | matris | En lista över alternativ för chattens slutförande. Kan innehålla fler än ett element om n det är större än 1. |
Ja | |
skapad | integer | Unix-tidsstämpeln (i sekunder) för när chatten slutfördes skapades. Varje segment har samma tidsstämpel. | Ja | |
modell | sträng | Modellen som ska generera slutförandet. | Ja | |
system_fingerprint | sträng | Det här fingeravtrycket representerar serverdelskonfigurationen som modellen körs med. Kan användas tillsammans med parametern seed för begäran för att förstå när serverdelsändringar har gjorts som kan påverka determinismen. |
Nej | |
objekt | uppräkning | Objekttypen, som alltid chat.completion.chunk är .Möjliga värden: chat.completion.chunk |
Ja |
chatCompletionStreamResponseDelta
Ett delta i chatten som genereras av strömmade modellsvar.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
innehåll | sträng | Innehållet i segmentmeddelandet. | Nej | |
function_call | objekt | Inaktuell och ersatt av tool_calls . Namnet och argumenten för en funktion som ska anropas, som genereras av modellen. |
Nej | |
tool_calls | matris | Nej | ||
roll | uppräkning | Rollen som författare till det här meddelandet. Möjliga värden: system, användare, assistent, verktyg |
Nej | |
vägran | sträng | Avslagsmeddelandet som genereras av modellen. | Nej |
Egenskaper för function_call
Argument
Namn | Type | Beskrivning | Standard |
---|---|---|---|
Argument | sträng | Argumenten för att anropa funktionen med, som genereras av modellen i JSON-format. Observera att modellen inte alltid genererar giltig JSON och kan generera parametrar som inte definierats av funktionsschemat. Verifiera argumenten i koden innan du anropar funktionen. |
name
Namn | Type | Beskrivning | Standard |
---|---|---|---|
name | sträng | Namnet på funktionen som ska anropas. |
chatCompletionMessageToolCallChunk
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
index | integer | Ja | ||
id | sträng | ID:t för verktygsanropet. | Nej | |
type | uppräkning | Verktygets typ. För närvarande stöds endast function .Möjliga värden: funktion |
Nej | |
function | objekt | Nej |
Egenskaper för funktionen
name
Namn | Type | Beskrivning | Standard |
---|---|---|---|
name | sträng | Namnet på funktionen som ska anropas. |
Argument
Namn | Type | Beskrivning | Standard |
---|---|---|---|
Argument | sträng | Argumenten för att anropa funktionen med, som genereras av modellen i JSON-format. Observera att modellen inte alltid genererar giltig JSON och kan generera parametrar som inte definierats av funktionsschemat. Verifiera argumenten i koden innan du anropar funktionen. |
chatCompletionStreamOptions
Alternativ för strömningssvar. Ange endast detta när du anger stream: true
.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
include_usage | boolean | Om det anges strömmas ytterligare ett segment före meddelandet data: [DONE] . Fältet usage i det här segmentet visar tokenanvändningsstatistiken för hela begäran och fältet choices kommer alltid att vara en tom matris. Alla andra segment innehåller också ett usage fält, men med ett null-värde. |
Nej |
chatCompletionChoiceLogProbs
Logga sannolikhetsinformation för valet.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
innehåll | matris | En lista över meddelandeinnehållstoken med loggens sannolikhetsinformation. | Ja | |
vägran | matris | En lista över token för meddelandevägran med loggens sannolikhetsinformation. | Nej |
chatCompletionTokenLogprob
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
token | sträng | Token. | Ja | |
logprob | Nummer | Loggens sannolikhet för denna token. | Ja | |
byte | matris | En lista över heltal som representerar UTF-8 byte-representationen av token. Användbart i fall där tecken representeras av flera token och deras byterepresentationer måste kombineras för att generera rätt textrepresentation. Kan vara null om det inte finns någon byterepresentation för token. |
Ja | |
top_logprobs | matris | Lista över de mest sannolika token och deras loggsannolikhet vid den här tokenpositionen. I sällsynta fall kan det finnas färre än antalet begärda top_logprobs som returneras. |
Ja |
chatCompletionResponseMessage
Ett meddelande om att chatten har slutförts som genererats av modellen.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
roll | chatCompletionResponseMessageRole | Rollen som upphovsman till svarsmeddelandet. | Ja | |
vägran | sträng | Avslagsmeddelandet som genereras av modellen. | Ja | |
innehåll | sträng | Innehållet i meddelandet. | Ja | |
tool_calls | matris | Verktyget anropar som genereras av modellen, till exempel funktionsanrop. | Nej | |
function_call | chatCompletionFunctionCall | Inaktuell och ersatt av tool_calls . Namnet och argumenten för en funktion som ska anropas, som genereras av modellen. |
Nej | |
sammanhang | azureChatExtensionsMessageContext | En representation av den ytterligare kontextinformation som är tillgänglig när Azure OpenAI-chatttillägg ingår i genereringen av ett motsvarande svar om chattens slutförande. Den här kontextinformationen fylls bara i när med hjälp av en Azure OpenAI-begäran som konfigurerats för att använda ett matchande tillägg. |
Nej |
chatCompletionResponseMessageRole
Rollen som upphovsman till svarsmeddelandet.
Beskrivning: Rollen som upphovsman till svarsmeddelandet.
Typ: sträng
Standard:
Uppräkningsvärden:
- assistent
chatCompletionToolChoiceOption
Styr vilket (om något) verktyg som anropas av modellen. none
innebär att modellen inte anropar något verktyg och i stället genererar ett meddelande. auto
innebär att modellen kan välja mellan att generera ett meddelande eller anropa ett eller flera verktyg. required
innebär att modellen måste anropa ett eller flera verktyg. Att ange ett visst verktyg via {"type": "function", "function": {"name": "my_function"}}
tvingar modellen att anropa verktyget. none
är standard när inga verktyg finns. auto
är standardvärdet om det finns verktyg.
Den här komponenten kan vara något av följande:
chatCompletionNamedToolChoice
Anger ett verktyg som modellen ska använda. Använd för att tvinga modellen att anropa en specifik funktion.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | uppräkning | Verktygets typ. För närvarande stöds endast function .Möjliga värden: funktion |
Ja | |
function | objekt | Ja |
Egenskaper för funktionen
name
Namn | Type | Beskrivning | Standard |
---|---|---|---|
name | sträng | Namnet på funktionen som ska anropas. |
ParallelToolCalls
Om du vill aktivera parallell funktionsanrop under verktygsanvändning.
Inga egenskaper har definierats för den här komponenten.
chatCompletionMessageToolCalls
Verktyget anropar som genereras av modellen, till exempel funktionsanrop.
Inga egenskaper har definierats för den här komponenten.
chatCompletionFunctionCall
Inaktuell och ersatt av tool_calls
. Namnet och argumenten för en funktion som ska anropas, som genereras av modellen.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
name | sträng | Namnet på funktionen som ska anropas. | Ja | |
Argument | sträng | Argumenten för att anropa funktionen med, som genereras av modellen i JSON-format. Observera att modellen inte alltid genererar giltig JSON och kan generera parametrar som inte definierats av funktionsschemat. Verifiera argumenten i koden innan du anropar funktionen. | Ja |
completionUsage
Användningsstatistik för slutförandebegäran.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
prompt_tokens | integer | Antal token i prompten. | Ja | |
completion_tokens | integer | Antal token i det genererade slutförandet. | Ja | |
total_tokens | integer | Totalt antal token som används i begäran (fråga + slutförande). | Ja | |
completion_tokens_details | objekt | Uppdelning av token som används i en slutförande. | Nej |
Egenskaper för completion_tokens_details
reasoning_tokens
Namn | Type | Beskrivning | Standard |
---|---|---|---|
reasoning_tokens | integer | Token som genereras av modellen för resonemang. |
chatCompletionTool
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | uppräkning | Verktygets typ. För närvarande stöds endast function .Möjliga värden: funktion |
Ja | |
function | FunctionObject | Ja |
FunctionParameters
Parametrarna som funktionerna accepterar, som beskrivs som ett JSON-schemaobjekt. Se guiden för exempel och JSON-schemareferensen för dokumentation om formatet.
Om du utelämnar parameters
definieras en funktion med en tom parameterlista.
Inga egenskaper har definierats för den här komponenten.
FunctionObject
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
description | sträng | En beskrivning av vad funktionen gör, som används av modellen för att välja när och hur funktionen ska anropas. | Nej | |
name | sträng | Namnet på den funktion som ska anropas. Måste vara a-z, A-Z, 0-9, eller innehålla understreck och bindestreck, med en maximal längd på 64. | Ja | |
parametrar | FunctionParameters | Parametrarna som funktionerna accepterar, som beskrivs som ett JSON-schemaobjekt. Se guiden för exempel och JSON-schemareferensen för dokumentation om formatet. Om du utelämnar parameters definieras en funktion med en tom parameterlista. |
Nej | |
sträng | boolean | Om du vill aktivera strikt schemaefterlevnad när funktionsanropet genereras. Om värdet är true följer modellen det exakta schemat som definierats i fältet parameters . Endast en delmängd av JSON-schemat stöds när strict är true . |
Nej | Falsk |
ResponseFormatText
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | uppräkning | Typ av svarsformat som definieras: text Möjliga värden: text |
Ja |
ResponseFormatJsonObject
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | uppräkning | Typ av svarsformat som definieras: json_object Möjliga värden: json_object |
Ja |
ResponseFormatJsonSchemaSchema
Schemat för svarsformatet, som beskrivs som ett JSON-schemaobjekt.
Inga egenskaper har definierats för den här komponenten.
ResponseFormatJsonSchema
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
type | uppräkning | Typ av svarsformat som definieras: json_schema Möjliga värden: json_schema |
Ja | |
json_schema | objekt | Ja |
Egenskaper för json_schema
description
Name | Type | Beskrivning | Standardvärde |
---|---|---|---|
description | sträng | En beskrivning av vad svarsformatet är till för, som används av modellen för att avgöra hur du ska svara i formatet. |
name
Namn | Type | Beskrivning | Standard |
---|---|---|---|
name | sträng | Namnet på svarsformatet. Måste vara a-z, A-Z, 0-9, eller innehålla understreck och bindestreck, med en maximal längd på 64. |
schema
Namn | Type | Beskrivning | Standard |
---|---|---|---|
schema | ResponseFormatJsonSchemaSchema | Schemat för svarsformatet, som beskrivs som ett JSON-schemaobjekt. |
sträng
Namn | Type | Beskrivning | Standard |
---|---|---|---|
sträng | boolean | Om du vill aktivera strikt schemaefterlevnad när utdata genereras. Om värdet är true följer modellen alltid det exakta schema som definierats i fältet schema . Endast en delmängd av JSON-schemat stöds när strict är true . |
Falsk |
chatCompletionChoiceCommon
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
index | integer | Nej | ||
finish_reason | sträng | Nej |
createTranslationRequest
Översättningsbegäran.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
fil | sträng | Ljudfilen som ska översättas. | Ja | |
snabb | sträng | En valfri text som vägleder modellens formatmall eller fortsätter med ett tidigare ljudsegment. Uppmaningen ska vara på engelska. | Nej | |
response_format | audioResponseFormat | Definierar formatet för utdata. | Nej | |
temperatur | Nummer | Provtagningstemperaturen, mellan 0 och 1. Högre värden som 0,8 gör utdata mer slumpmässiga, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Om värdet är 0 använder modellen loggsannolikhet för att automatiskt öka temperaturen tills vissa tröskelvärden uppnås. | Nej | 0 |
audioResponse
Översättnings- eller transkriptionssvar när response_format var json
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
text | sträng | Översatt eller transkriberad text. | Ja |
audioVerboseResponse
Översättnings- eller transkriptionssvar när response_format verbose_json
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
text | sträng | Översatt eller transkriberad text. | Ja | |
aktivitet | sträng | Typ av ljudaktivitet. | Nej | |
språk | string | Språk. | Nej | |
varaktighet | Nummer | Varaktighet. | Nej | |
Segment | matris | Nej |
audioResponseFormat
Definierar formatet för utdata.
Beskrivning: Definierar formatet för utdata.
Typ: sträng
Standard:
Uppräkningsvärden:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transkriptionsbegäran.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
fil | sträng | Ljudfilsobjektet som ska transkriberas. | Ja | |
snabb | sträng | En valfri text som vägleder modellens formatmall eller fortsätter med ett tidigare ljudsegment. Uppmaningen ska matcha ljudspråket. | Nej | |
response_format | audioResponseFormat | Definierar formatet för utdata. | Nej | |
temperatur | Nummer | Provtagningstemperaturen, mellan 0 och 1. Högre värden som 0,8 gör utdata mer slumpmässiga, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Om värdet är 0 använder modellen loggsannolikhet för att automatiskt öka temperaturen tills vissa tröskelvärden uppnås. | Nej | 0 |
språk | string | Språket för indataljudet. Om du anger indataspråket i ISO-639-1-format förbättras noggrannheten och svarstiden. | Nej |
audioSegment
Transkriptions- eller översättningssegment.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
id | integer | Segmentidentifierare. | Nej | |
söka | Nummer | Förskjutning av segmentet. | Nej | |
start | Nummer | Segmentstartsförskjutning. | Nej | |
end | Nummer | Segmentslutförskjutning. | Nej | |
text | sträng | Segmentera text. | Nej | |
Token | matris | Token för texten. | Nej | |
temperatur | Nummer | Temperatur. | Nej | |
avg_logprob | Nummer | Genomsnittlig loggsannolikheten. | Nej | |
compression_ratio | Nummer | Kompressionsförhållande. | Nej | |
no_speech_prob | Nummer | Sannolikhet för no speech . |
Nej |
imageQuality
Kvaliteten på den bild som ska genereras.
Beskrivning: Kvaliteten på den bild som ska genereras.
Typ: sträng
Standard: standard
Uppräkningsnamn: Kvalitet
Uppräkningsvärden:
Värde | beskrivning |
---|---|
standard | Standardkvalitet skapar bilder med standardkvalitet. |
hårddisk | HD-kvalitet skapar bilder med finare information och större konsekvens i bilden. |
imagesResponseFormat
Formatet där de genererade bilderna returneras.
Beskrivning: Formatet där de genererade bilderna returneras.
Typ: sträng
Standard: url
Uppräkningsnamn: ImagesResponseFormat
Uppräkningsvärden:
Värde | beskrivning |
---|---|
URL | Den URL som ger tillfällig åtkomst för att ladda ned de genererade avbildningarna. |
b64_json | De genererade bilderna returneras som base64-kodad sträng. |
imageSize
Storleken på de genererade bilderna.
Beskrivning: Storleken på de genererade bilderna.
Typ: sträng
Standard: 1024x1024
Uppräkningsnamn: Storlek
Uppräkningsvärden:
Värde | beskrivning |
---|---|
1792x1024 | Den genererade bildens önskade storlek är 1 792 x 1 024 bildpunkter. |
1024x1792 | Den genererade bildens önskade storlek är 1 024 x 1 792 bildpunkter. |
1 024 × 1 024 | Den genererade bildens önskade storlek är 1 024 x 1 024 bildpunkter. |
imageStyle
Formatmallen för de genererade bilderna.
Beskrivning: Formatmallen för de genererade bilderna.
Typ: sträng
Standard: levande
Uppräkningsnamn: Formatmall
Uppräkningsvärden:
Värde | beskrivning |
---|---|
levande | Levande skapar bilder som är hyperrealistiska och dramatiska. |
naturlig | Naturliga skapar bilder som är mer naturliga och mindre hyperrealistiska. |
imageGenerationsRequest
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
snabb | sträng | En textbeskrivning av de önskade bilderna. Den maximala längden är 4 000 tecken. | Ja | |
n | integer | Antalet bilder som ska genereras. | Nej | 1 |
storlek | imageSize | Storleken på de genererade bilderna. | Nej | 1 024 × 1 024 |
response_format | imagesResponseFormat | Formatet där de genererade bilderna returneras. | Nej | URL |
användare | sträng | En unik identifierare som representerar slutanvändaren, som kan hjälpa till att övervaka och upptäcka missbruk. | Nej | |
kvalitet | imageQuality | Kvaliteten på den bild som ska genereras. | Nej | standard |
style | imageStyle | Formatmallen för de genererade bilderna. | Nej | levande |
generateImagesResponse
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
skapad | integer | Unix-tidsstämpeln när åtgärden skapades. | Ja | |
data | matris | Resultatdata för åtgärden, om det lyckas | Ja |
imageResult
Bild-URL:en eller den kodade bilden om den lyckas och ett annat fel.
Namn | Type | Beskrivning | Obligatoriskt | Standardvärde |
---|---|---|---|---|
URL | sträng | Bild-URL:en. | Nej | |
b64_json | sträng | Den base64-kodade avbildningen | Nej | |
content_filter_results | dalleContentFilterResults | Information om resultatet av innehållsfiltreringen. | Nej | |
revised_prompt | sträng | Uppmaningen som användes för att generera avbildningen, om det fanns någon revision av prompten. | Nej | |
prompt_filter_results | dalleFilterResults | Information om innehållsfiltreringskategorin (hat, sexuellt, våld, self_harm), om det har upptäckts, samt allvarlighetsnivån (very_low, låg, medelhög, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har identifierats och om det har filtrerats eller inte. Och information om kundens blocklista, om den har filtrerats och dess ID. | Nej |
Tillägg för slutföranden
Tillägg för slutföranden är inte en del av den senaste GA-versionen av inferensspecifikationen för Azure OpenAI-dataplanet.
Chatmessage
Chattmeddelandeobjektet är inte en del av den senaste GA-versionen av inferensspecifikationen för Azure OpenAI-dataplanet.
Text till tal
Ingår för närvarande inte i den senaste Azure OpenAI GA-versionen av inferensspecifikationen för Azure OpenAI-dataplanet. Se den senaste förhandsversionen för den här funktionen.
Nästa steg
Lär dig mer om modeller och finjustering med REST-API:et. Läs mer om de underliggande modeller som driver Azure OpenAI.