Get Chat Completions - Get Chat Completions
指定されたチャット メッセージのチャットの完了を取得します。
入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから続行または "完了" するテキストを生成します。 このメソッドは、指定されたエンドポイント上の /chat/completions
ルートに対して REST API 呼び出しを行います。
POST https:///chat/completions?api-version=2024-05-01-preview
URI パラメーター
名前 | / | 必須 | 型 | 説明 |
---|---|---|---|---|
api-version
|
query | True |
string |
この操作に使用する API バージョン。 |
要求ヘッダー
名前 | 必須 | 型 | 説明 |
---|---|---|---|
extra-parameters |
REST API によって定義されていない追加のパラメーターが JSON 要求ペイロードで渡された場合の動作を制御します。
これにより、HTTP 要求ヘッダー |
要求本文
名前 | 必須 | 型 | 説明 |
---|---|---|---|
messages | True | ChatRequestMessage[]: |
このチャット完了要求に関連付けられているコンテキスト メッセージのコレクション。 一般的な使用法は、アシスタントの動作に関する指示を提供するシステム ロールのチャット メッセージから始まり、その後にユーザー ロールとアシスタント ロール間でメッセージが交互に表示されます。 |
frequency_penalty |
number |
生成されたテキストの累積頻度に基づいて、生成されたトークンが出現する確率に影響する値。 正の値を指定すると、頻度の増加に伴ってトークンが表示されにくく、モデルが同じステートメントを逐語的に繰り返す可能性が低下します。 サポートされる範囲は [-2, 2] です。 |
|
max_tokens |
integer |
生成するトークンの最大数。 |
|
modalities |
モデルがチャット完了応答に使用できるモダリティ。 既定のモダリティは |
||
model |
string |
エンドポイントで複数のモデルが使用可能な場合に使用する特定の AI モデルの ID。 |
|
presence_penalty |
number |
生成されたテキスト内の既存の存在に基づいて生成されたトークンが出現する確率に影響する値。 正の値を指定すると、トークンが既に存在する場合にトークンが表示される可能性が低くなり、モデルが新しいトピックを出力する可能性が高くなります。 サポートされる範囲は [-2, 2] です。 |
|
response_format | ChatCompletionsResponseFormat: |
モデルが出力する必要がある形式を指定するオブジェクト。
重要: JSON モードを使用する場合、システムまたはユーザー メッセージを使用して自分で JSON を生成するようにモデルに指示 必要。 これを行わないと、生成がトークンの制限に達するまで、モデルは空白の終わりのないストリームを生成し、実行時間が長く、一見 "スタック" な要求になる可能性があります。 また、生成が |
|
seed |
integer |
指定した場合、システムは、同じシードとパラメーターを使用して繰り返される要求が同じ結果を返すように、決定論的にサンプリングするように最善を尽くします。 決定性は保証されません。 |
|
stop |
string[] |
完了の生成を終了するテキスト シーケンスのコレクション。 |
|
stream |
boolean |
この要求に対してチャットの完了をストリーミングする必要があるかどうかを示す値。 |
|
temperature |
number |
生成された完了の明らかな創造性を制御する使用するサンプリング温度。 値が大きいほど出力がランダムになり、値が小さいほど結果のフォーカスが高くなり、決定論的になります。 これら 2 つの設定の相互作用を予測するのが困難であるため、同じ完了要求の温度とtop_pを変更することはお勧めしません。 サポートされる範囲は [0, 1] です。 |
|
tool_choice |
指定した場合、モデルは、チャットの完了応答に使用できる指定されたツールのどれを構成します。 |
||
tools |
モデルが呼び出しを要求する可能性があるツールの一覧。 現時点では、関数のみがツールとしてサポートされています。 モデルは、関数呼び出し要求で応答し、その関数の JSON 形式で入力引数を指定できます。 |
||
top_p |
number |
核サンプリングと呼ばれる温度でのサンプリングの代替。 この値により、モデルは、指定された確率質量を持つトークンの結果を考慮します。 たとえば、値が 0.15 の場合、上位 15% の確率質量を含むトークンのみが考慮されます。 これら 2 つの設定の相互作用を予測するのが困難であるため、同じ完了要求の温度とtop_pを変更することはお勧めしません。 サポートされる範囲は [0, 1] です。 |
応答
名前 | 型 | 説明 |
---|---|---|
200 OK |
要求は成功しました。 |
|
Other Status Codes |
予期しないエラー応答。 ヘッダー x-ms-error-code: string |
セキュリティ
api-key
型:
apiKey
/:
header
OAuth2Auth
型:
oauth2
フロー:
implicit
Authorization URL (承認 URL):
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
スコープ
名前 | 説明 |
---|---|
https://ml.azure.com/.default |
例
Audio modality chat completion |
maximum set chat completion |
minimum set chat completion |
Audio modality chat completion
要求のサンプル
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text",
"audio"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
},
{
"role": "assistant",
"content": null,
"audio": {
"id": "abcdef1234"
}
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
}
],
"frequency_penalty": 0,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"seed": 21,
"model": "my-model-name"
}
応答のサンプル
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1696522361,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16,
"completion_tokens_details": {
"audio_tokens": 5,
"total_tokens": 5
},
"prompt_tokens_details": {
"audio_tokens": 10,
"cached_tokens": 0
}
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": null,
"audio": {
"id": "abcdef1234",
"format": "wav",
"data": "<base64 encoded audio data>",
"expires_at": 1896522361,
"transcript": "This is a sample transcript"
}
}
}
]
}
maximum set chat completion
要求のサンプル
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": "Explain Riemann's conjecture"
},
{
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
},
{
"role": "user",
"content": "Ist it proved?"
}
],
"frequency_penalty": 0,
"stream": true,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"max_tokens": 255,
"response_format": {
"type": "text"
},
"stop": [
"<|endoftext|>"
],
"tools": [
{
"type": "function",
"function": {
"name": "my-function-name",
"description": "A function useful to know if a theroem is proved or not"
}
}
],
"seed": 21,
"model": "my-model-name"
}
応答のサンプル
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 18,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16
},
"choices": [
{
"index": 7,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": [
{
"id": "yrobmilsrugmbwukmzo",
"type": "function",
"function": {
"name": "my-function-name",
"arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
}
}
]
}
}
]
}
minimum set chat completion
要求のサンプル
POST https:///chat/completions?api-version=2024-05-01-preview
{
"messages": [
{
"role": "user",
"content": "Explain Riemann's conjecture"
}
]
}
応答のサンプル
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1234567890,
"model": "my-model-name",
"usage": {
"prompt_tokens": 205,
"completion_tokens": 5,
"total_tokens": 210
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
}
}
]
}
定義
名前 | 説明 |
---|---|
Audio |
オーディオに使用できるオーディオ形式の表現。 |
Azure. |
エラー オブジェクト。 |
Azure. |
エラーの詳細を含む応答。 |
Azure. |
エラーに関するより具体的な情報を含むオブジェクト。 Microsoft One API のガイドラインに従って - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses. |
Chat |
チャットの完了要求全体の一部としての 1 つのプロンプト入力候補の表現。
一般に、 |
Chat |
チャット完了要求からの応答データの表現。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから続行または "完了" するテキストを生成します。 |
Chat |
モデルによって生成されるオーディオの表現。 |
Chat |
モデルがチャット完了応答に使用できるモダリティ。 |
Chat |
チャット完了要求の構成情報。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから続行または "完了" するテキストを生成します。 |
Chat |
有効な JSON オブジェクトの出力に応答を制限するチャット完了の応答形式。 JSON モードを有効にするために、一部の AI モデルでは、システムまたはユーザー メッセージを介して JSON を生成するようにモデルに指示する必要がある場合もあります。 |
Chat |
呼び出し元によって指定された JSON スキーマを使用して、有効な JSON オブジェクトの出力に応答を制限するチャット完了の応答形式。 |
Chat |
応答で必要な JSON スキーマの定義と、関連付けられているメタデータ。 |
Chat |
テキスト応答を出力するチャット完了の応答形式。 これは既定の応答形式です。 |
Chat |
AI モデルによって要求された関数ツール呼び出し。 |
Chat |
関数を呼び出すことができるチャット完了ツールの定義。 |
Chat |
アシスタントからの応答またはアクションを表す要求チャット メッセージ。 |
Chat |
モデルによって生成されたオーディオ応答への参照。 |
Chat |
モデルがチャット完了応答を生成する方法に影響を与えるシステム命令を含む要求チャット メッセージ。 |
Chat |
構成されたツールからの要求された出力を表す要求チャット メッセージ。 |
Chat |
アシスタントへのユーザー入力を表す要求チャット メッセージ。 |
Chat |
応答で受信したチャット メッセージの表現。 |
Chat |
チャットの完了操作内のメッセージの目的の説明。 |
Completions |
完了応答が終了した方法の表現。 |
Completions |
完了要求に対して処理されたトークン数の表現。 カウントでは、プロンプト、選択肢、選択肢の代替、best_of世代、およびその他のコンシューマー全体のすべてのトークンが考慮されます。 |
Completions |
完了で使用されるトークンの内訳。 |
Extra |
REST API によって定義されていない追加のパラメーターが JSON 要求ペイロードで渡された場合の動作を制御します。 |
Function |
モデルによって生成される、呼び出す必要がある関数の名前と引数。 |
Function |
一致するユーザー入力に応答してチャットの完了が呼び出される可能性がある呼び出し元指定関数の定義。 |
Prompt |
プロンプト/チャット履歴で使用されるトークンの内訳。 |
AudioContentFormat
オーディオに使用できるオーディオ形式の表現。
値 | 説明 |
---|---|
mp3 |
オーディオを MP3 形式で指定します。 |
wav |
オーディオを WAV 形式で指定します。 |
Azure.Core.Foundations.Error
エラー オブジェクト。
名前 | 型 | 説明 |
---|---|---|
code |
string |
サーバー定義の一連のエラー コードの 1 つ。 |
details |
この報告されたエラーの原因となった特定のエラーに関する詳細の配列。 |
|
innererror |
エラーに関する現在のオブジェクトよりも具体的な情報を含むオブジェクト。 |
|
message |
string |
エラーの人間が判読できる表現。 |
target |
string |
エラーのターゲット。 |
Azure.Core.Foundations.ErrorResponse
エラーの詳細を含む応答。
名前 | 型 | 説明 |
---|---|---|
error |
エラー オブジェクト。 |
Azure.Core.Foundations.InnerError
エラーに関するより具体的な情報を含むオブジェクト。 Microsoft One API のガイドラインに従って - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.
名前 | 型 | 説明 |
---|---|---|
code |
string |
サーバー定義の一連のエラー コードの 1 つ。 |
innererror |
内部エラー。 |
ChatChoice
チャットの完了要求全体の一部としての 1 つのプロンプト入力候補の表現。
一般に、n
選択肢は、指定されたプロンプトごとに生成され、既定値は 1 になります。
トークンの制限やその他の設定により、生成される選択肢の数が制限される場合があります。
名前 | 型 | 説明 |
---|---|---|
finish_reason |
このチャット入力候補の選択が生成を完了した理由。 |
|
index |
integer |
このチャット入力候補に関連付けられている順序付きインデックス。 |
message |
特定のチャット完了プロンプトのチャット メッセージ。 |
ChatCompletions
チャット完了要求からの応答データの表現。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから続行または "完了" するテキストを生成します。
名前 | 型 | 説明 |
---|---|---|
choices |
この入力候補の応答に関連付けられている入力候補の選択肢のコレクション。
一般に、 |
|
created |
integer |
この完了応答の生成アクティビティに関連付けられた最初のタイムスタンプ。1970 年 1 月 1 日の Unix エポック 00:00 の開始からの秒数として表されます。 |
id |
string |
このチャット完了応答に関連付けられている一意の識別子。 |
model |
string |
チャットの完了に使用されるモデル。 |
object |
enum:
chat. |
応答オブジェクトの種類。常に |
usage |
この完了操作の一環として処理および生成されたトークンの使用状況情報。 |
ChatCompletionsAudio
モデルによって生成されるオーディオの表現。
名前 | 型 | 説明 |
---|---|---|
data |
string |
Base64 でエンコードされたオーディオ データ |
expires_at |
integer |
オーディオピースの有効期限が切れ、複数ターンの会話でその ID によって参照されなくなった Unix タイムスタンプ (秒単位)。 |
format |
オーディオ コンテンツの形式。 形式が指定されていない場合は、入力オーディオ要求で使用される形式と一致します。 |
|
id |
string |
オーディオ応答の一意識別子。 この値は、完全なオーディオ オブジェクトを渡す代わりに、チャット履歴メッセージで使用できます。 |
transcript |
string |
オーディオ ファイルのトランスクリプト。 |
ChatCompletionsModality
モデルがチャット完了応答に使用できるモダリティ。
値 | 説明 |
---|---|
audio |
モデルはオーディオの生成を許可されます。 |
text |
モデルはテキストの生成のみを許可されます。 |
ChatCompletionsOptions
チャット完了要求の構成情報。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから続行または "完了" するテキストを生成します。
名前 | 型 | 規定値 | 説明 |
---|---|---|---|
frequency_penalty |
number |
0 |
生成されたテキストの累積頻度に基づいて、生成されたトークンが出現する確率に影響する値。 正の値を指定すると、頻度の増加に伴ってトークンが表示されにくく、モデルが同じステートメントを逐語的に繰り返す可能性が低下します。 サポートされる範囲は [-2, 2] です。 |
max_tokens |
integer |
生成するトークンの最大数。 |
|
messages | ChatRequestMessage[]: |
このチャット完了要求に関連付けられているコンテキスト メッセージのコレクション。 一般的な使用法は、アシスタントの動作に関する指示を提供するシステム ロールのチャット メッセージから始まり、その後にユーザー ロールとアシスタント ロール間でメッセージが交互に表示されます。 |
|
modalities |
モデルがチャット完了応答に使用できるモダリティ。 既定のモダリティは |
||
model |
string |
エンドポイントで複数のモデルが使用可能な場合に使用する特定の AI モデルの ID。 |
|
presence_penalty |
number |
0 |
生成されたテキスト内の既存の存在に基づいて生成されたトークンが出現する確率に影響する値。 正の値を指定すると、トークンが既に存在する場合にトークンが表示される可能性が低くなり、モデルが新しいトピックを出力する可能性が高くなります。 サポートされる範囲は [-2, 2] です。 |
response_format | ChatCompletionsResponseFormat: |
モデルが出力する必要がある形式を指定するオブジェクト。
重要: JSON モードを使用する場合、システムまたはユーザー メッセージを使用して自分で JSON を生成するようにモデルに指示 必要。 これを行わないと、生成がトークンの制限に達するまで、モデルは空白の終わりのないストリームを生成し、実行時間が長く、一見 "スタック" な要求になる可能性があります。 また、生成が |
|
seed |
integer |
指定した場合、システムは、同じシードとパラメーターを使用して繰り返される要求が同じ結果を返すように、決定論的にサンプリングするように最善を尽くします。 決定性は保証されません。 |
|
stop |
string[] |
完了の生成を終了するテキスト シーケンスのコレクション。 |
|
stream |
boolean |
この要求に対してチャットの完了をストリーミングする必要があるかどうかを示す値。 |
|
temperature |
number |
0.7 |
生成された完了の明らかな創造性を制御する使用するサンプリング温度。 値が大きいほど出力がランダムになり、値が小さいほど結果のフォーカスが高くなり、決定論的になります。 これら 2 つの設定の相互作用を予測するのが困難であるため、同じ完了要求の温度とtop_pを変更することはお勧めしません。 サポートされる範囲は [0, 1] です。 |
tool_choice |
指定した場合、モデルは、チャットの完了応答に使用できる指定されたツールのどれを構成します。 |
||
tools |
モデルが呼び出しを要求する可能性があるツールの一覧。 現時点では、関数のみがツールとしてサポートされています。 モデルは、関数呼び出し要求で応答し、その関数の JSON 形式で入力引数を指定できます。 |
||
top_p |
number |
1 |
核サンプリングと呼ばれる温度でのサンプリングの代替。 この値により、モデルは、指定された確率質量を持つトークンの結果を考慮します。 たとえば、値が 0.15 の場合、上位 15% の確率質量を含むトークンのみが考慮されます。 これら 2 つの設定の相互作用を予測するのが困難であるため、同じ完了要求の温度とtop_pを変更することはお勧めしません。 サポートされる範囲は [0, 1] です。 |
ChatCompletionsResponseFormatJsonObject
有効な JSON オブジェクトの出力に応答を制限するチャット完了の応答形式。 JSON モードを有効にするために、一部の AI モデルでは、システムまたはユーザー メッセージを介して JSON を生成するようにモデルに指示する必要がある場合もあります。
名前 | 型 | 説明 |
---|---|---|
type |
string:
json_object |
チャットの完了に使用する応答形式の種類。 |
ChatCompletionsResponseFormatJsonSchema
呼び出し元によって指定された JSON スキーマを使用して、有効な JSON オブジェクトの出力に応答を制限するチャット完了の応答形式。
名前 | 型 | 説明 |
---|---|---|
json_schema |
応答で必要な JSON スキーマの定義と、関連付けられているメタデータ。 |
|
type |
string:
json_schema |
チャットの完了に使用する応答形式の種類。 |
ChatCompletionsResponseFormatJsonSchemaDefinition
応答で必要な JSON スキーマの定義と、関連付けられているメタデータ。
名前 | 型 | 規定値 | 説明 |
---|---|---|---|
description |
string |
この形式で応答を生成する方法を決定するために AI モデルによって使用される応答形式の説明。 |
|
name |
string |
応答形式の名前。 最大長は 64 の a から z、A から Z、0 から 9、またはアンダースコアとダッシュを含む必要があります。 |
|
schema |
JSON スキーマの定義 |
||
strict |
boolean |
False |
出力の生成時に厳密なスキーマ準拠を有効にするかどうかを指定します。
true に設定すると、モデルは常に |
ChatCompletionsResponseFormatText
テキスト応答を出力するチャット完了の応答形式。 これは既定の応答形式です。
名前 | 型 | 説明 |
---|---|---|
type |
string:
text |
チャットの完了に使用する応答形式の種類。 |
ChatCompletionsToolCall
AI モデルによって要求された関数ツール呼び出し。
名前 | 型 | 説明 |
---|---|---|
function |
AI モデルによって要求された関数呼び出しの詳細。 |
|
id |
string |
ツール呼び出しの ID。 |
type |
enum:
function |
ツール呼び出しの種類。 現時点では、 |
ChatCompletionsToolDefinition
関数を呼び出すことができるチャット完了ツールの定義。
名前 | 型 | 説明 |
---|---|---|
function |
関数ツールの関数定義の詳細。 |
|
type |
enum:
function |
ツールの種類。 現時点では、 |
ChatRequestAssistantMessage
アシスタントからの応答またはアクションを表す要求チャット メッセージ。
名前 | 型 | 説明 |
---|---|---|
audio |
複数ターンの会話で以前の応答によって生成されたオーディオ。 |
|
content |
string |
メッセージの内容。 |
role |
string:
assistant |
このメッセージに関連付けられているチャット ロール。 |
tool_calls |
このツールは、解決する必要がある呼び出しを行い、その出力を後続の入力メッセージに追加して、チャット完了要求が構成どおりに解決されるようにします。 |
ChatRequestAudioReference
モデルによって生成されたオーディオ応答への参照。
名前 | 型 | 説明 |
---|---|---|
id |
string |
オーディオ応答の一意識別子。 この値は、以前のオーディオ入力候補の ID に対応します。 |
ChatRequestSystemMessage
モデルがチャット完了応答を生成する方法に影響を与えるシステム命令を含む要求チャット メッセージ。
名前 | 型 | 説明 |
---|---|---|
content |
string |
システム メッセージの内容。 |
role |
string:
system |
このメッセージに関連付けられているチャット ロール。 |
ChatRequestToolMessage
構成されたツールからの要求された出力を表す要求チャット メッセージ。
名前 | 型 | 説明 |
---|---|---|
content |
string |
メッセージの内容。 |
role |
string:
tool |
このメッセージに関連付けられているチャット ロール。 |
tool_call_id |
string |
指定されたコンテンツによって解決されたツール呼び出しの ID。 |
ChatRequestUserMessage
アシスタントへのユーザー入力を表す要求チャット メッセージ。
名前 | 型 | 説明 |
---|---|---|
content |
ユーザー メッセージの内容。使用可能な入力の種類は、選択したモデルによって異なります。 |
|
role |
string:
user |
このメッセージに関連付けられているチャット ロール。 |
ChatResponseMessage
応答で受信したチャット メッセージの表現。
名前 | 型 | 説明 |
---|---|---|
audio |
モデルがオーディオを生成するように構成されている場合、メッセージへの応答としてモデルによって生成されるオーディオ。 |
|
content |
string |
メッセージの内容。 |
role |
メッセージに関連付けられているチャット ロール。 |
|
tool_calls |
このツールは、解決する必要がある呼び出しを行い、その出力を後続の入力メッセージに追加して、チャット完了要求が構成どおりに解決されるようにします。 |
ChatRole
チャットの完了操作内のメッセージの目的の説明。
値 | 説明 |
---|---|
assistant |
システム指示のユーザープロンプト入力への応答を提供するロール。 |
developer |
ユーザー メッセージよりも優先されるモデルに指示を提供するロール。 |
system |
アシスタントの動作を指示または設定するロール。 |
tool |
チャットの完了操作内の拡張機能ツールのアクティビティを表すロール。 |
user |
チャットの完了に対する入力を提供するロール。 |
CompletionsFinishReason
完了応答が終了した方法の表現。
値 | 説明 |
---|---|
content_filter |
完了により、コンテンツ モデレーション ポリシーごとに機密性の高い可能性があると識別された応答が生成されました。 |
length |
完了すると、生成が完了する前に使用可能なトークン制限が使い果たされました。 |
stop |
完了は正常に終了し、トークンの生成が終了しました。 |
tool_calls |
完了は、指定されたツールを出力用に呼び出すモデルで終了しました。 |
CompletionsUsage
完了要求に対して処理されたトークン数の表現。 カウントでは、プロンプト、選択肢、選択肢の代替、best_of世代、およびその他のコンシューマー全体のすべてのトークンが考慮されます。
名前 | 型 | 説明 |
---|---|---|
completion_tokens |
integer |
すべての完了エミッションで生成されたトークンの数。 |
completion_tokens_details |
完了で使用されるトークンの内訳。 |
|
prompt_tokens |
integer |
入力候補要求の指定されたプロンプト内のトークンの数。 |
prompt_tokens_details |
プロンプト/チャット履歴で使用されるトークンの内訳。 |
|
total_tokens |
integer |
完了要求と応答に対して処理されたトークンの合計数。 |
CompletionsUsageDetails
完了で使用されるトークンの内訳。
名前 | 型 | 説明 |
---|---|---|
audio_tokens |
integer |
オーディオ入力に対応するトークンの数。 |
total_tokens |
integer |
完了要求と応答に対して処理されたトークンの合計数。 |
ExtraParameters
REST API によって定義されていない追加のパラメーターが JSON 要求ペイロードで渡された場合の動作を制御します。
値 | 説明 |
---|---|
drop |
サービスは、要求ペイロード内の追加のパラメーターを無視 (ドロップ) します。 既知のパラメーターのみがバックエンド AI モデルに渡されます。 |
error |
要求ペイロードで追加のパラメーターが検出された場合、サービスはエラーになります。 これがサービスの既定値です。 |
pass-through |
サービスは、バックエンド AI モデルに追加のパラメーターを渡します。 |
FunctionCall
モデルによって生成される、呼び出す必要がある関数の名前と引数。
名前 | 型 | 説明 |
---|---|---|
arguments |
string |
モデルによって JSON 形式で生成された関数を呼び出す引数。 モデルでは、常に有効な JSON が生成されるわけではありません。また、関数スキーマで定義されていないパラメーターが検出される可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。 |
name |
string |
呼び出す関数の名前。 |
FunctionDefinition
一致するユーザー入力に応答してチャットの完了が呼び出される可能性がある呼び出し元指定関数の定義。
名前 | 型 | 説明 |
---|---|---|
description |
string |
関数の動作の説明。 モデルでは、関数を選択してそのパラメーターを解釈するときに、この説明が使用されます。 |
name |
string |
呼び出す関数の名前。 |
parameters |
関数が受け入れるパラメーター (JSON スキーマ オブジェクトとして記述)。 |
PromptUsageDetails
プロンプト/チャット履歴で使用されるトークンの内訳。
名前 | 型 | 説明 |
---|---|---|
audio_tokens |
integer |
オーディオ入力に対応するトークンの数。 |
cached_tokens |
integer |
キャッシュされたトークンの合計数。 |