Referenz: Vervollständigungen | Azure KI Studio
Wichtig
Die in diesem Artikel markierten Elemente (Vorschau) sind aktuell als öffentliche Vorschau verfügbar. Diese Vorschauversion wird ohne Vereinbarung zum Servicelevel bereitgestellt und sollte nicht für Produktionsworkloads verwendet werden. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Zusätzliche Nutzungsbestimmungen für Microsoft Azure-Vorschauen.
Erstellt eine Modellantwort für die angegebene Chatunterhaltung.
POST /chat/completions?api-version=2024-04-01-preview
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | BESCHREIBUNG |
---|---|---|---|---|
api-version | Abfrage | True | Zeichenfolge | Die Version der API im Format "JJJJ-MM-TT" oder "JJJJ-MM-TT-Vorschau" |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
Zusätzliche Parameter | Zeichenfolge | Das Verhalten der API, wenn zusätzliche Parameter in der Nutzlast angegeben werden. Durch die Verwendung von pass-through wird die API zum Übergeben des Parameters an das zugrunde liegende Modell angeregt. Verwenden Sie diesen Wert, wenn Sie Parameter übergeben möchten, die Ihnen bekannt sind, damit das zugrunde liegende Modell unterstützt werden kann. Die Verwendung von ignore führt dazu, dass die API alle nicht unterstützten Parameter ablegt. Verwenden Sie diesen Wert, wenn Sie dieselbe Nutzlast in verschiedenen Modellen verwenden müssen, aber einer der zusätzlichen Parameter kann dazu führen, dass ein Modell ausfällt, wenn es nicht unterstützt wird. Die Verwendung von error sorgt dafür, dass die API alle zusätzlichen Parameter in der Nutzlast ablehnt. Es können nur Parameter angegeben werden, die in dieser API festgelegt sind, ansonsten wird ein 400-Fehler zurückgegeben. |
|
azureml-model-deployment | Zeichenfolge | Name der Bereitstellung, an die Sie die Anforderung weiterleiten möchten Unterstützt für Endpunkte, die mehrere Bereitstellungen unterstützen |
Anforderungstext
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
model | Zeichenfolge | Der Name des Modells. Dieser Parameter wird ignoriert, wenn der Endpunkt nur für ein Modell verwendet wird. | |
Cloud an das Gerät | True | ChatCompletionRequestMessage | Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Gibt einen 422-Fehler zurück, wenn mindestens einige der Nachrichten vom Modell nicht verstanden werden können. |
frequency_penalty | Zahl | Verhindert Wortwiederholungen, indem die Wahrscheinlichkeit reduziert wird, dass ein Wort ausgewählt wird, wenn es bereits verwendet wurde. Je höher die Häufigkeitsstrafe ist, desto geringer ist die Wahrscheinlichkeit, dass das Modell dieselben Wörter in seiner Ausgabe wiederholt. Gibt einen 422-Fehler zurück, wenn der Wert oder Parameter vom Modell nicht unterstützt wird. | |
max_tokens | integer | Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können. Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt. Das Übergeben von NULL bewirkt, dass das Modell seine maximale Kontextlänge verwendet. |
|
presence_penalty | Zahl | Verhindert, dass dieselben Themen wiederholt werden, indem ein Wort bestraft wird, wenn es bereits in der Vervollständigung vorhanden ist, selbst wenn es nur einmal ist. Gibt einen 422-Fehler zurück, wenn der Wert oder Parameter vom Modell nicht unterstützt wird. | |
response_format | ChatCompletionResponseFormat | ||
seed | integer | Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten. Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen. |
|
stop | Sequenzen, bei denen die API aufhört, weitere Token zu generieren. | ||
Datenstrom | boolean | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] -Nachricht beendet wird |
|
Temperatur | Zahl | Nicht negative Zahl Gibt 422 zurück, wenn der Wert vom Modell nicht unterstützt wird. | |
Toolauswahl | ChatCompletionToolChoiceOption | Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Gibt einen 422-Fehler zurück, wenn das Tool vom Modell nicht unterstützt wird. |
|
tools | ChatCompletionTool[] | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Gibt einen 422-Fehler zurück, wenn das Tool vom Modell nicht unterstützt wird. | |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Antworten
Name | Typ | BESCHREIBUNG |
---|---|---|
200 – OK | CreateChatCompletionResponse | OK |
401 – Nicht autorisiert | UnauthorizedError | Zugriffstoken fehlt oder ist ungültig Kopfzeile x-ms-error-code: string |
404 Nicht gefunden | NotFoundError | Modalität wird vom Modell nicht unterstützt. Sehen Sie in der Dokumentation des Modells nach, welche Routen verfügbar sind. Kopfzeile x-ms-error-code: string |
422: Entität kann nicht verarbeitet werden | UnprocessableContentError | Die Anforderung enthält nicht verarbeitbaren Inhalt. Kopfzeile x-ms-error-code: string |
429 – Zu viele Anforderungen | TooManyRequestsError | Sie haben das zugewiesene Ratenlimit erreicht, und Ihre Anforderung muss beschleunigt werden. Kopfzeile x-ms-error-code: string |
Andere Statuscodes | ContentFilterError | Ungültige Anforderung Kopfzeile x-ms-error-code: string |
Sicherheit
Autorisierung
Das Token mit dem Bearer:
-Präfix, z. B. Bearer abcde12345
Typ: apiKey
In: Header
AADToken
Azure Active Directory OAuth2-Authentifizierung
Typ: oauth2
Flow: Anwendung
Token-URL: https://login.microsoftonline.com/common/oauth2/v2.0/token
Beispiele
Erstellt eine Modellantwort für die angegebene Chatunterhaltung
Beispiel-Anfrage
POST /chat/completions?api-version=2024-04-01-preview
{
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": "Explain Riemann's conjecture"
},
{
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
},
{
"role": "user",
"content": "Ist it proved?"
}
],
"frequency_penalty": 0,
"presence_penalty": 0,
"max_tokens": 256,
"seed": 42,
"stop": "<|endoftext|>",
"stream": false,
"temperature": 0,
"top_p": 1,
"response_format": { "type": "text" }
}
Beispiel für eine Antwort
Statuscode: 200
{
"id": "1234567890",
"model": "llama2-70b-chat",
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "No, it has never been proved"
}
}
],
"created": 1234567890,
"object": "chat.completion",
"usage": {
"prompt_tokens": 205,
"completion_tokens": 5,
"total_tokens": 210
}
}
Definitionen
Name | Beschreibung |
---|---|
ChatCompletionRequestMessage | |
ChatCompletionMessageContentPart | |
ChatCompletionMessageContentPartType | |
ChatCompletionToolChoiceOption | Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Gibt einen 422-Fehler zurück, wenn das Tool vom Modell nicht unterstützt wird. |
ChatCompletionFinishReason | Der Grund, warum das Modell das Generieren von Token beendet hat. Der Wert ist stop , wenn das Modell einen natürlichen Beendigungspunkt oder eine angegebene Beendigungssequenz erreicht hat, oder length , wenn die in der Anforderung angegebene maximale Anzahl von Token erreicht wurde, oder content_filter , wenn Inhalte aufgrund eines Flags in unseren Inhaltsfiltern ausgelassen wurden, oder tool_calls , wenn das Modell ein Tool aufgerufen hat. |
ChatCompletionMessageToolCall | |
ChatCompletionObject | Der Objekttyp, der immer chat.completion ist. |
ChatCompletionResponseFormat | Das Antwortformat für die Modellantwort. Wenn Sie ihn auf json_object festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist. Wenn Sie den JSON-Modus verwenden, müssen Sie auch das Modell anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
ChatCompletionResponseFormatType | Der Antwortformattyp. |
ChatCompletionResponseMessage | Eine vom Modell generierte Chatvervollständigungsnachricht |
ChatCompletionTool | |
ChatMessageRole | Die Rolle des Autors dieser Nachricht |
Optionen | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. |
CompletionUsage | Nutzungsstatistiken für die Vervollständigungsanforderung |
ContentFilterError | Der API-Aufruf schlägt fehl, wenn der Prompt einen Inhaltsfilter wie konfiguriert auslöst. Ändern Sie die Äußerung, und versuchen Sie es erneut. |
CreateChatCompletionRequest | |
CreateChatCompletionResponse | Repräsentiert eine Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird. |
Detail | Details zum Fehler UnprocessableContentError. |
Funktion | Die Funktion, die das Modell aufgerufen hat |
FunctionObject | Definition einer Funktion, auf die das Modell zugreifen kann. |
ImageDetail | Gibt den Detailgrad des Bilds an. |
NotFoundError | Die Route ist für das bereitgestellte Modell ungültig. |
ToolType | Der Typ des Tools. Derzeit wird nur function unterstützt. |
TooManyRequestsError | Sie haben das zugewiesene Ratenlimit erreicht, und Ihre Anforderungen müssen beschleunigt werden. |
UnauthorizedError | Die Authentifizierung fehlt oder ist ungültig. |
UnprocessableContentError | Die Anforderung enthält nicht verarbeitbaren Inhalt. Der Fehler wird zurückgegeben, wenn die angegebene Nutzlast gemäß dieser Spezifikation gültig ist. Einige der in der Nutzlast angegebenen Anweisungen werden jedoch vom zugrunde liegenden Modell nicht unterstützt. Verwenden Sie den details -Abschnitt, um den problematischen Parameter zu verstehen. |
ChatCompletionFinishReason
Der Grund, warum das Modell das Generieren von Token beendet hat. Der Wert ist stop
, wenn das Modell einen natürlichen Beendigungspunkt oder eine angegebene Beendigungssequenz erreicht hat, oder length
, wenn die in der Anforderung angegebene maximale Anzahl von Token erreicht wurde, oder content_filter
, wenn Inhalte aufgrund eines Flags in unseren Inhaltsfiltern ausgelassen wurden, oder tool_calls
, wenn das Modell ein Tool aufgerufen hat.
Name | Typ | Beschreibung |
---|---|---|
content_filter | Zeichenfolge | |
length | Zeichenfolge | |
stop | Zeichenfolge | |
tool_calls | Zeichenfolge |
ChatCompletionMessageToolCall
Name | Typ | Beschreibung |
---|---|---|
Funktion | Funktion | Die Funktion, die das Modell aufgerufen hat |
Kennung | Zeichenfolge | Die ID des Toolaufrufs |
Typ | ToolType | Der Typ des Tools. Derzeit wird nur function unterstützt. |
ChatCompletionObject
Der Objekttyp, der immer chat.completion
ist.
Name | Typ | Beschreibung |
---|---|---|
chat.completion | Zeichenfolge |
ChatCompletionResponseFormat
Das Antwortformat für die Modellantwort. Wenn Sie ihn auf json_object
festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist. Wenn Sie den JSON-Modus verwenden, müssen Sie auch das Modell anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length"
verwenden. Damit wird angegeben, dass bei der Generierung max_tokens
überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Name | Typ | Beschreibung |
---|---|---|
Typ | ChatCompletionResponseFormatType | Der Antwortformattyp. |
ChatCompletionResponseFormatType
Der Antwortformattyp.
Name | Typ | Beschreibung |
---|---|---|
json_object | Zeichenfolge | |
Text | Zeichenfolge |
ChatCompletionResponseMessage
Eine vom Modell generierte Chatvervollständigungsnachricht
Name | Typ | Beschreibung |
---|---|---|
Inhalt | Zeichenfolge | Der Inhalt der Nachricht. |
role | ChatMessageRole | Die Rolle des Autors dieser Nachricht |
tool_calls | ChatCompletionMessageToolCall[] | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. |
ChatCompletionTool
Name | Typ | Beschreibung |
---|---|---|
Funktion | FunctionObject | |
Typ | ToolType | Der Typ des Tools. Derzeit wird nur function unterstützt. |
ChatMessageRole
Die Rolle des Autors dieser Nachricht
Name | Typ | Beschreibung |
---|---|---|
assistant | Zeichenfolge | |
system | Zeichenfolge | |
Tool | Zeichenfolge | |
user | Zeichenfolge |
Optionen
Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Es können mehrere sein, wenn n
größer als 1 ist.
Name | Typ | Beschreibung |
---|---|---|
finish_reason | ChatCompletionFinishReason | Der Grund, warum das Modell das Generieren von Token beendet hat. Der Wert ist stop , wenn das Modell einen natürlichen Beendigungspunkt oder eine angegebene Beendigungssequenz erreicht hat, oder length , wenn die in der Anforderung angegebene maximale Anzahl von Token erreicht wurde, oder content_filter , wenn Inhalte aufgrund eines Flags in unseren Inhaltsfiltern ausgelassen wurden, oder tool_calls , wenn das Modell ein Tool aufgerufen hat. |
Index | integer | Der Index der Auswahl in der Liste der Auswahlmöglichkeiten |
message | ChatCompletionResponseMessage | Eine vom Modell generierte Chatvervollständigungsnachricht |
CompletionUsage
Nutzungsstatistiken für die Vervollständigungsanforderung
Name | Typ | Beschreibung |
---|---|---|
completion_tokens | integer | Anzahl der Token in der generierten Vervollständigung |
prompt_tokens | integer | Anzahl der Token im Prompt. |
total_tokens | integer | Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). |
ContentFilterError
Der API-Aufruf schlägt fehl, wenn der Prompt einen Inhaltsfilter wie konfiguriert auslöst. Ändern Sie die Äußerung, und versuchen Sie es erneut.
Name | Typ | BESCHREIBUNG |
---|---|---|
code | Zeichenfolge | Der Fehlercode. |
error | Zeichenfolge | Die Fehlerbeschreibung. |
message | Zeichenfolge | Die Fehlermeldung. |
param | Zeichenfolge | Der Parameter, der den Inhaltsfilter ausgelöst hat. |
status | integer | Der HTTP-Statuscode. |
CreateChatCompletionRequest
Name | Type | Standardwert | Beschreibung |
---|---|---|---|
frequency_penalty | Zahl | 0 | Verhindert Wortwiederholungen, indem die Wahrscheinlichkeit reduziert wird, dass ein Wort ausgewählt wird, wenn es bereits verwendet wurde. Je höher die Häufigkeitsstrafe ist, desto geringer ist die Wahrscheinlichkeit, dass das Modell dieselben Wörter in seiner Ausgabe wiederholt. Gibt einen 422-Fehler zurück, wenn der Wert oder Parameter vom Modell nicht unterstützt wird. |
max_tokens | integer | Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können. Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt. Das Übergeben von NULL bewirkt, dass das Modell seine maximale Kontextlänge verwendet. |
|
Cloud an das Gerät | ChatCompletionRequestMessage[] | Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Gibt einen 422-Fehler zurück, wenn mindestens einige der Nachrichten vom Modell nicht verstanden werden können. | |
presence_penalty | Zahl | 0 | Verhindert, dass dieselben Themen wiederholt werden, indem ein Wort bestraft wird, wenn es bereits in der Vervollständigung vorhanden ist, selbst wenn es nur einmal ist. Gibt einen 422-Fehler zurück, wenn der Wert oder Parameter vom Modell nicht unterstützt wird. |
response_format | ChatCompletionResponseFormat | Text | |
seed | integer | Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten. Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen. |
|
stop | Sequenzen, bei denen die API aufhört, weitere Token zu generieren. | ||
Datenstrom | boolean | False | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] -Nachricht beendet wird |
Temperatur | number | 1 | Nicht negative Zahl Gibt 422 zurück, wenn der Wert vom Modell nicht unterstützt wird. |
Toolauswahl | ChatCompletionToolChoiceOption | Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Gibt einen 422-Fehler zurück, wenn das Tool vom Modell nicht unterstützt wird. |
|
tools | ChatCompletionTool[] | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Gibt einen 422-Fehler zurück, wenn das Tool vom Modell nicht unterstützt wird. | |
top_p | number | 1 | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
ChatCompletionRequestMessage
Name | Typ | Beschreibung |
---|---|---|
content | Zeichenfolge oder ChatCompletionMessageContentPart[] | Der Inhalt der Nachricht. |
role | ChatMessageRole | Die Rolle des Autors dieser Nachricht |
tool_calls | ChatCompletionMessageToolCall[] | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. |
ChatCompletionMessageContentPart
Name | Typ | Beschreibung |
---|---|---|
Inhalt | Zeichenfolge | Entweder eine URL des Bilds oder die base64-codierten Bilddaten |
detail | ImageDetail | Gibt den Detailgrad des Bilds an. |
Typ | ChatCompletionMessageContentPartType | Der Typ des Inhaltsteils |
ChatCompletionMessageContentPartType
Name | Typ | BESCHREIBUNG |
---|---|---|
text | Zeichenfolge | |
image | Zeichenfolge | |
image_url | Zeichenfolge |
ChatCompletionToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
Name | Typ | BESCHREIBUNG |
---|---|---|
Keine | Zeichenfolge | Das Modell ruft kein Tool auf, sondern generiert stattdessen eine Meldung. |
auto | Zeichenfolge | Das Modell kann zwischen dem Generieren einer Meldung und dem Aufrufen von Tools auswählen. |
erforderlich | Zeichenfolge | Das Modell muss mindestens ein Tools aufrufen. |
Zeichenfolge | Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. |
ImageDetail
Gibt den Detailgrad des Bilds an.
Name | Typ | Beschreibung |
---|---|---|
auto | Zeichenfolge | |
niedrig | Zeichenfolge | |
high | Zeichenfolge |
CreateChatCompletionResponse
Repräsentiert eine Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.
Name | Typ | Beschreibung |
---|---|---|
Optionen | Choices[] | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Es können mehrere sein, wenn n größer als 1 ist. |
erstellte | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde |
Kennung | Zeichenfolge | Ein eindeutiger Bezeichner für die Chatvervollständigung |
model | Zeichenfolge | Das Modell, das für die Chatvervollständigung verwendet wird |
Objekt | ChatCompletionObject | Der Objekttyp, der immer chat.completion ist. |
system_fingerprint | Zeichenfolge | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. |
Nutzung | CompletionUsage | Nutzungsstatistiken für die Vervollständigungsanforderung |
Detail
Details zum Fehler UnprocessableContentError.
Name | Typ | Beschreibung |
---|---|---|
loc | string[] | Der Parameter, der das Problem verursacht |
value | Zeichenfolge | Der an den Parameter übergebene Wert, der Probleme verursacht |
Funktion
Die Funktion, die das Modell aufgerufen hat
Name | Typ | Beschreibung |
---|---|---|
Argumente | Zeichenfolge | Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise falsche Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. |
name | Zeichenfolge | Der Name der aufzurufenden Funktion. |
FunctionObject
Definition einer Funktion, auf die das Modell zugreifen kann.
Name | Typ | BESCHREIBUNG |
---|---|---|
Beschreibung | string | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. |
name | Zeichenfolge | Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. |
Parameter | Objekt | Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert. |
NotFoundError
Name | Typ | Beschreibung des Dataflows |
---|---|---|
error | Zeichenfolge | Die Fehlerbeschreibung. |
message | Zeichenfolge | Die Fehlermeldung. |
status | integer | Der HTTP-Statuscode. |
ToolType
Der Typ des Tools. Derzeit wird nur function
unterstützt.
Name | Typ | Beschreibung |
---|---|---|
Funktion | Zeichenfolge |
TooManyRequestsError
Name | Typ | Beschreibung des Dataflows |
---|---|---|
error | Zeichenfolge | Die Fehlerbeschreibung. |
message | Zeichenfolge | Die Fehlermeldung. |
status | integer | Der HTTP-Statuscode. |
UnauthorizedError
Name | Typ | Beschreibung des Dataflows |
---|---|---|
error | Zeichenfolge | Die Fehlerbeschreibung. |
message | Zeichenfolge | Die Fehlermeldung. |
status | integer | Der HTTP-Statuscode. |
UnprocessableContentError
Die Anforderung enthält nicht verarbeitbaren Inhalt. Der Fehler wird zurückgegeben, wenn die angegebene Nutzlast gemäß dieser Spezifikation gültig ist. Einige der in der Nutzlast angegebenen Anweisungen werden jedoch vom zugrunde liegenden Modell nicht unterstützt. Verwenden Sie den details
-Abschnitt, um den problematischen Parameter zu verstehen.
Name | Typ | BESCHREIBUNG |
---|---|---|
code | Zeichenfolge | Der Fehlercode. |
Detail | Detail | |
error | Zeichenfolge | Die Fehlerbeschreibung. |
message | Zeichenfolge | Die Fehlermeldung. |
status | integer | Der HTTP-Statuscode. |