Azure OpenAI Service の REST API リファレンス
この記事では、Azure OpenAI の推論 REST API エンドポイントについて詳しく説明します。
API の仕様
Azure OpenAI モデルとリソースの管理と対話は、次の 3 つの主要な API サーフェスに分かれています。
- コントロール プレーン
- データ プレーン - 作成
- データ プレーン - 推論
各 API サーフェス/仕様には、異なる Azure OpenAI 機能のセットがカプセル化されています。 各 API には、プレビューと安定した/一般公開 (GA) の API リリースの独自のセットがあります。 現在、プレビュー リリースは毎月のペースで行われる傾向があります。
API | 最新のプレビュー リリース | 最新の GA リリース | 仕様 | 説明 |
---|---|---|---|---|
コントロール プレーン | 2024-06-01-preview |
2024-10-01 |
仕様ファイル | Azure OpenAI は、他のすべての Azure AI サービスと共通のコントロール プレーンを共有します。 コントロール プレーン API は、Azure OpenAI リソースの作成、モデル デプロイ、その他の上位レベルのリソース管理タスクなどに使用されます。 コントロール プレーンは、Azure Resource Manager、Bicep、Terraform、Azure CLI などの機能で実行可能な内容も制御します。 |
データ プレーン - 作成 | 2024-10-01-preview |
2024-10-21 |
仕様ファイル | データ プレーン作成 API は、微調整、ファイル アップロード、インジェスト ジョブ、バッチ、および特定のモデル レベルのクエリを制御します |
データ プレーン - 推論 | 2024-10-01-preview |
2024-10-21 |
仕様ファイル | データ プレーン推論 API は、データに対する入力候補、チャット入力候補、埋め込み、音声/Whisper、DALL-E、アシスタントなどの機能の推論機能/エンドポイントを提供します。 |
認証
Azure OpenAI には、2 つの認証方法が用意されています。 API キーまたは Microsoft Entra ID を使用できます。
API キー認証: この種類の認証の場合、すべての API 要求で、
api-key
HTTP ヘッダーに API キーを含める必要があります。 クイック スタートに、この種類の認証を使用して呼び出しを行う方法に関するガイダンスが用意されています。Microsoft Entra ID 認証: Microsoft Entra トークンを使用して API 呼び出しを認証できます。 認証トークンは、
Authorization
ヘッダーとして要求に含まれます。 指定するトークンの前にBearer
を付ける必要があります (例:Bearer YOUR_AUTH_TOKEN
)。 Microsoft Entra ID を使用した認証に関する攻略ガイドをお読みください。
REST API のバージョン管理
サービス API は、api-version
クエリ パラメーターを使用してバージョン管理されます。 すべてのバージョンは、YYYY-MM-DD 日付構造に従います。 次に例を示します。
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
データ プレーン推論
この記事の残りの部分では、Azure OpenAI データ プレーン推論仕様の最新 GA リリース 2024-10-21
について説明します。
最新のプレビュー API リリースに関するドキュメントをお探しの場合は、最新のプレビュー データ プレーン推論 API に関する記事を参照してください
入力候補
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
指定されたプロンプト、パラメーターと、選択されたモデルに対する補完を作成します。
URI パラメーター
名前 | / | 必須 | タイプ | 説明 |
---|---|---|---|---|
endpoint | path | はい | string URL |
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com 。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com |
deployment-id | path | はい | string | デプロイされたモデルのデプロイ ID。 |
api-version | クエリ | はい | string | API バージョン |
要求ヘッダー
名前 | Required | タイプ | 説明 |
---|---|---|---|
api-key | True | string | ここには Azure OpenAI API キーを指定します |
要求本文
コンテンツ タイプ: アプリケーション/json
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
prompt | 文字列または配列 | 文字列、文字列の配列、トークンの配列、またはトークン配列の配列としてエンコードされた、補完を生成するためのプロンプト。 <|endoftext|> はトレーニング中にモデルが認識するドキュメント区切り記号であるため、プロンプトを指定しない場合、モデルは新しいドキュメントの先頭からであるかのように生成します。 |
はい | |
best_of | integer | サーバー側で best_of 入力候補を生成し、"最適なもの" (トークンあたりの対数確率が最高のもの) を返します。 結果をストリーミングすることはできません。n とともに使用すると、best_of は入力候補の数を制御し、n は返す数を指定します。best_of は n より大きくする必要があります。注: このパラメーターにより多くの入力候補が生成されるため、トークン クォータがすぐに消費される可能性があります。 慎重に使用し、 max_tokens と stop の設定が合理的であることを確認してください。 |
いいえ | 1 |
echo | boolean | 入力候補に加えてプロンプトをエコーバックします。 |
いいえ | False |
frequency_penalty | 数値 | -2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。 |
いいえ | 0 |
logit_bias | オブジェクト | 指定したトークンが入力候補に表示される可能性を変更します。 トークン (GPT トークナイザーのトークン ID で指定) を関連付けられたバイアス値 (-100 から 100) にマップする JSON オブジェクトを受け入れます。 数学的には、サンプリングの前にモデルによって生成されたロジットにバイアスが追加されます。 正確な効果はモデルごとに異なりますが、-1 から 1 の値では選択の可能性が低下または増加し、-100 や 100 などの値では、関連するトークンの禁止または排他的な選択になります。 たとえば、<|endoftext|> トークンが生成されないように、 {"50256": -100} を渡すことができます。 |
いいえ | なし |
logprobs | integer | logprobs の最も可能性の高い出力トークンと、選択したトークンのログ確率を含めます。 たとえば、logprobs が 5 の場合、API は可能性が最も高い 5 個のトークンの一覧を返します。 API は常に、サンプリングされたトークンの logprob を返します。そのため、応答には、最大 logprobs+1 の要素が含まれる可能性があります。logprobs の最大値は 5 です。 |
いいえ | なし |
max_tokens | integer | 補完の中で生成できるトークンの最大数。 プロンプトのトークン数と max_tokens の合計は、モデルのコンテキスト長を超えることはできません。 |
いいえ | 16 |
n | integer | プロンプトごとに生成する入力候補の数。 注: このパラメーターにより多くの入力候補が生成されるため、トークン クォータがすぐに消費される可能性があります。 慎重に使用し、 max_tokens と stop の設定が合理的であることを確認してください。 |
いいえ | 1 |
presence_penalty | 数値 | -2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。 |
いいえ | 0 |
シード | integer | 指定されている場合、このシステムは、同じ seed とパラメーターを使用して繰り返された要求に対して同じ結果を返せるように、決定論的にサンプリングを行うように最善を尽くします。決定性は保証されないため、バックエンドでの変更を監視するには、 system_fingerprint 応答パラメーターを参照する必要があります。 |
いいえ | |
stop | 文字列または配列 | API がそれ以上のトークンの生成を停止する、最大 4 つのシーケンス。 返されるテキストに停止シーケンスは含まれません。 |
いいえ | |
stream | boolean | 部分的な進行状況をストリーム バックするかどうか。 設定されている場合、トークンは使用可能になるとデータのみのサーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージによって終了します。 |
いいえ | False |
suffix | string | 挿入されたテキストの入力候補の後に付加されるサフィックス。 このパラメーターは、 gpt-3.5-turbo-instruct に対してのみサポートされます。 |
いいえ | なし |
温度 | 数値 | 使用するサンプリング温度 (0 から 2)。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 一般に、これと top_p の両方ではなく、いずれかを変更することをお勧めします。 |
いいえ | 1 |
top_p | 数値 | 温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。 一般に、これと temperature の両方ではなく、いずれかを変更することをお勧めします。 |
いいえ | 1 |
ユーザー | string | エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。 |
いいえ |
応答
状態コード: 200
説明: OK
Content-Type | Type | 説明 |
---|---|---|
application/json | createCompletionResponse | API からの補完応答を表します。 注: (チャット エンドポイントとは異なり)、ストリーム応答オブジェクトと非ストリーム応答オブジェクトはどちらも同じシェイプを共有します。 |
状態コード: 既定
説明: サービスを利用できません
Content-Type | Type | 説明 |
---|---|---|
application/json | errorResponse |
例
例
指定されたプロンプト、パラメーターと、選択されたモデルに対する補完を作成します。
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
応答: 状態コード: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
埋め込み
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
機械学習モデルやアルゴリズムで簡単に使用できる、特定の入力のベクター表現を取得します。
URI パラメーター
名前 | / | 必須 | タイプ | 説明 |
---|---|---|---|---|
endpoint | path | はい | string URL |
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com 。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com |
deployment-id | path | はい | string | |
api-version | クエリ | はい | string | API バージョン |
要求ヘッダー
名前 | Required | タイプ | 説明 |
---|---|---|---|
api-key | True | string | ここには Azure OpenAI API キーを指定します |
要求本文
コンテンツ タイプ: アプリケーション/json
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
input | 文字列または配列 | 埋め込むテキストを入力します。トークンの文字列または配列としてエンコードされます。 1 回の要求で複数の入力を埋め込むには、文字列の配列またはトークン配列の配列を渡します。 入力は、モデルの最大入力トークン数 (text-embedding-ada-002 の場合は 8,192 トークン) を超えてはならず、空の文字列であってはなりません。また、配列は 2,048 次元以下でなければなりません。 |
はい | |
ユーザー | string | エンド ユーザーを表す一意の識別子。乱用の監視と検出に役立ちます。 | いいえ | |
input_type | string | 使用する埋め込み検索の入力の型 | いいえ | |
encoding_format | string | 埋め込みを返す形式。 float または base64 を指定できます。 既定値は float です。 |
いいえ | |
dimensions | integer | 結果として出力される埋め込みに必要なディメンションの数。 text-embedding-3 以降のモデルでのみサポートされます。 |
いいえ |
応答
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
オブジェクト | string | はい | ||
モデル | string | はい | ||
data | 配列 | はい | ||
使用量 | オブジェクト | はい |
使用するプロパティ
prompt_tokens
名前 | 種類 | 説明 | Default |
---|---|---|---|
prompt_tokens | integer |
total_tokens
名前 | 種類 | 説明 | Default |
---|---|---|---|
total_tokens | integer |
状態コード: 200
説明: OK
Content-Type | Type | 説明 |
---|---|---|
application/json | オブジェクト |
例
例
指定されたプロンプトの埋め込みを返却します。
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
応答: 状態コード: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
チャット入力候補
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
チャット メッセージの補完を作成します
URI パラメーター
名前 | / | 必須 | タイプ | 説明 |
---|---|---|---|---|
endpoint | path | はい | string URL |
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com 。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com |
deployment-id | path | はい | string | デプロイされたモデルのデプロイ ID。 |
api-version | クエリ | はい | string | API バージョン |
要求ヘッダー
名前 | Required | タイプ | 説明 |
---|---|---|---|
api-key | True | string | ここには Azure OpenAI API キーを指定します |
要求本文
コンテンツ タイプ: アプリケーション/json
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
温度 | 数値 | 使用するサンプリング温度 (0 から 2)。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 一般に、これと top_p の両方ではなく、いずれかを変更することをお勧めします。 |
いいえ | 1 |
top_p | 数値 | 温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。 一般に、これと temperature の両方ではなく、いずれかを変更することをお勧めします。 |
いいえ | 1 |
stream | boolean | 設定すると、ChatGPT と同様に部分的なメッセージ デルタが送信されます。 トークンは、使用可能になるとデータのみのサーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージによって終了します。 |
いいえ | False |
stop | 文字列または配列 | API がそれ以上のトークンの生成を停止する、最大 4 つのシーケンス。 |
いいえ | |
max_tokens | integer | チャット入力候補で生成できるトークンの最大数。 入力トークンと生成されたトークンの合計の長さは、モデルのコンテキスト長によって制限されます。 |
いいえ | |
max_completion_tokens | integer | 可視出力トークンや推論トークンなど、完了するために生成できるトークンの数の上限。 | いいえ | |
presence_penalty | 数値 | -2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。 |
いいえ | 0 |
frequency_penalty | 数値 | -2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。 |
いいえ | 0 |
logit_bias | オブジェクト | 指定したトークンが入力候補に表示される可能性を変更します。 トークン (トークナイザーのトークン ID で指定) を関連付けられたバイアス値 (-100 から 100) にマップする JSON オブジェクトを受け入れます。 数学的には、サンプリングの前にモデルによって生成されたロジットにバイアスが追加されます。 正確な効果はモデルごとに異なりますが、-1 から 1 の値では選択の可能性が低下または増加し、-100 や 100 などの値では、関連するトークンの禁止または排他的な選択になります。 |
いいえ | なし |
ユーザー | string | エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。 |
いいえ | |
messages | 配列 | これまでの会話を構成するメッセージの一覧。 | はい | |
data_sources | 配列 | それらを使用する Azure OpenAI チャット拡張機能の構成エントリ。 この追加仕様は、Azure OpenAI とのみ互換性があります。 |
いいえ | |
logprobs | boolean | 出力トークンのログ確率を返すかどうかを指定します。 true に設定すると、message の content に含まれる各出力トークンのログ確率が返されます。 |
いいえ | False |
top_logprobs | integer | 0 から 20 までの整数値を指定します。これは、各トークンの位置において、最も出現確率の高いトークンをいくつ返すかを表します。各トークンには、それぞれ関連するログ確率が付与されます。 このパラメーターを使う場合、logprobs は true に設定する必要があります。 |
いいえ | |
n | integer | 入力メッセージごとに生成するチャット入力候補の選択肢の数。 選択肢全体で生成されたトークンの数に基づいて課金されることに注意してください。 コストを最小限に抑えるために、n を 1 のままにします。 |
いいえ | 1 |
parallel_tool_calls | ParallelToolCalls | ツールの使用中に並列関数の呼び出しを有効にするかどうか。 | いいえ | True |
応答形式 | ResponseFormatText または ResponseFormatJsonObject または ResponseFormatJsonSchema | モデルが出力する必要がある形式を指定するオブジェクト。 GPT-4o、GPT-4o mini、GPT-4 Turbo、および gpt-3.5-turbo-1106 以降のすべての GPT-3.5 Turbo モデルと互換性があります。{ "type": "json_schema", "json_schema": {...} } に設定すると、モデルと提供された JSON スキーマが一致することを保証する構造化出力が有効になります。{ "type": "json_object" } に設定すると、JSON モードが有効になります。これにより、モデルが生成するメッセージが有効な JSON であることが保証されます。重要: JSON モードを使うときは、システムまたはユーザー メッセージ経由で、JSON を生成するようにユーザー自身がモデルに指示することも必要です。 これがないと、トークンの上限に達するまで、モデルはいつまでも空白のストリームを生成する可能性があります。その結果、実行時間が長く、一見 "止まっている" ように見える要求が発生します。 また、 finish_reason="length" の場合、メッセージの内容が部分的に切り取られる可能性があります。これは、世代が max_tokens を超えたか、会話がコンテキストの最大長を超えたことを示します。 |
いいえ | |
シード | integer | この機能はベータ版です。 指定されている場合、このシステムは、同じ seed とパラメーターを使用して繰り返された要求に対して同じ結果を返せるように、決定論的にサンプリングを行うように最善を尽くします。決定性は保証されないため、バックエンドでの変更を監視するには、 system_fingerprint 応答パラメーターを参照する必要があります。 |
いいえ | |
tools | 配列 | モデルによって呼び出されるツールの一覧。 現在のところ、関数のみがツールとしてサポートされています。 これを使用し、モデルによって JSON 入力が生成される関数の一覧を提供します。 最大 128 個の関数がサポートされています。 |
いいえ | |
tool_choice | chatCompletionToolChoiceOption | モデルによって呼び出されるツールを制御します (ある場合)。 none は、モデルでツールが呼び出されず、代わりにメッセージが生成されることを意味します。 auto は、モデルがメッセージを生成するか、1 つ以上のツールを呼び出すかを選択できることを意味します。 required は、モデルが 1 つ以上のツールを呼び出す必要があることを意味します。 {"type": "function", "function": {"name": "my_function"}} を介して特定のツールを指定すると、モデルでそのツールの呼び出しが強制されます。 ツールが存在しない場合は、none が既定値です。 ツールが存在する場合は、auto が既定値です。 |
いいえ | |
function_call | string または chatCompletionFunctionCallOption | tool_choice を優先して非推奨になりました。モデルによって呼び出される関数を制御します (そのような関数がある場合)。 none は、モデルが関数を呼び出さず、代わりにメッセージを生成することを示します。auto の場合、メッセージを生成するか、関数を呼び出すか、モデルで選択できます。{"name": "my_function"} で特定の関数を指定すると、モデルはその関数を強制的に呼び出します。関数が存在しない場合は、 none が既定値です。 関数が存在する場合は、auto が既定値です。 |
いいえ | |
functions | 配列 | 非推奨になりました。tools を使用してください。モデルが JSON 入力を生成する可能性がある関数の一覧。 |
いいえ |
応答
状態コード: 200
説明: OK
Content-Type | Type | 説明 |
---|---|---|
application/json | createChatCompletionResponse または createChatCompletionStreamResponse |
状態コード: 既定
説明: サービスを利用できません
Content-Type | Type | 説明 |
---|---|---|
application/json | errorResponse |
例
例
指定されたプロンプト、パラメーターと、選択されたモデルに対する補完を作成します。
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
応答: 状態コード: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
例
Azure Search データとシステム割り当てマネージド ID に基づいて入力候補を作成します。
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
応答: 状態コード: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
例
Azure Search ベクター データ、前のアシスタント メッセージ、およびユーザー割り当てマネージド ID に基づいて入力候補を作成します。
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
応答: 状態コード: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
例
指定された Azure Cosmos DB に対する入力候補を作成します。
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
応答: 状態コード: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
文字起こし - 作成
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
オーディオを入力言語に文字起こしします。
URI パラメーター
名前 | / | 必須 | タイプ | 説明 |
---|---|---|---|---|
endpoint | path | はい | string URL |
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com 。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com |
deployment-id | path | はい | string | Whisper モデルのデプロイ ID。 |
api-version | クエリ | はい | string | API バージョン |
要求ヘッダー
名前 | Required | タイプ | 説明 |
---|---|---|---|
api-key | True | string | ここには Azure OpenAI API キーを指定します |
要求本文
Content-Type: multipart/form-data
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
file | string | 文字起こしするオーディオ ファイル オブジェクト。 | はい | |
プロンプト | string | モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトはオーディオ言語と一致する必要があります。 | いいえ | |
応答形式 | audioResponseFormat | 出力の形式を定義します。 | いいえ | |
温度 | 数値 | 0 から 1 の間のサンプリング温度。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 | いいえ | 0 |
言語 | string | 入力オーディオの言語。 入力言語を ISO-639-1 形式で提供すると、精度と待機時間が向上します。 | いいえ |
応答
状態コード: 200
説明: OK
Content-Type | Type | 説明 |
---|---|---|
application/json | audioResponse または audioVerboseResponse | |
text/plain | string | 出力形式で文字起こしされたテキスト (response_format がテキスト、vtt、または srt のいずれかであったとき)。 |
例
例
指定された音声オーディオ データから、文字起こしされたテキストと関連するメタデータを取得します。
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
応答: 状態コード: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
例
指定された音声オーディオ データから、文字起こしされたテキストと関連するメタデータを取得します。
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
応答: 状態コード: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
翻訳 - 作成
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
入力オーディオを文字起こしし、英語のテキストに翻訳します。
URI パラメーター
名前 | / | 必須 | タイプ | 説明 |
---|---|---|---|---|
endpoint | path | はい | string URL |
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com 。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com |
deployment-id | path | はい | string | デプロイされた Whisper モデルのデプロイ ID。 |
api-version | クエリ | はい | string | API バージョン |
要求ヘッダー
名前 | Required | タイプ | 説明 |
---|---|---|---|
api-key | True | string | ここには Azure OpenAI API キーを指定します |
要求本文
Content-Type: multipart/form-data
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
file | string | 翻訳するオーディオ ファイル。 | はい | |
プロンプト | string | モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトは英語にする必要があります。 | いいえ | |
応答形式 | audioResponseFormat | 出力の形式を定義します。 | いいえ | |
温度 | 数値 | 0 から 1 の間のサンプリング温度。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 | いいえ | 0 |
応答
状態コード: 200
説明: OK
Content-Type | Type | 説明 |
---|---|---|
application/json | audioResponse または audioVerboseResponse | |
text/plain | string | 出力形式で文字起こしされたテキスト (response_format がテキスト、vtt、または srt のいずれかであったとき)。 |
例
例
指定された音声オーディオ データから、英語版の文字起こしされたテキストと関連するメタデータを取得します。
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
応答: 状態コード: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
例
指定された音声オーディオ データから、英語版の文字起こしされたテキストと関連するメタデータを取得します。
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
応答: 状態コード: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
イメージの生成
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
特定の DALL-E モデル デプロイのテキスト キャプションから画像のバッチを生成します
URI パラメーター
名前 | / | 必須 | タイプ | 説明 |
---|---|---|---|---|
endpoint | path | はい | string URL |
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com 。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com |
deployment-id | path | はい | string | デプロイされた DALL-E モデルのデプロイ ID。 |
api-version | クエリ | はい | string | API バージョン |
要求ヘッダー
名前 | Required | タイプ | 説明 |
---|---|---|---|
api-key | True | string | ここには Azure OpenAI API キーを指定します |
要求本文
コンテンツ タイプ: アプリケーション/json
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
prompt | string | 目的のイメージのテキストの説明。 最大長は 4,000 文字です。 | はい | |
n | integer | 生成するイメージの数。 | いいえ | 1 |
size | imageSize | 生成されたイメージのサイズ。 | いいえ | 1,024 x 1,024 |
応答形式 | imagesResponseFormat | 生成された画像が返される形式です。 | いいえ | URL |
ユーザー | string | エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。 | いいえ | |
品質 | imageQuality | 生成されるイメージの品質。 | いいえ | standard |
スタイル | imageStyle | 生成されたイメージのスタイル。 | いいえ | vivid |
応答
状態コード: 200
説明: OK
Content-Type | Type | 説明 |
---|---|---|
application/json | generateImagesResponse |
状態コード: 既定
説明: エラーが発生しました。
Content-Type | Type | 説明 |
---|---|---|
application/json | dalleErrorResponse |
例
例
プロンプトの指定を受けてイメージを作成します。
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
応答: 状態コード: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
コンポーネント
errorResponse
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
error | error | いいえ |
errorBase
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
code | string | いいえ | ||
message | string | いいえ |
エラー
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
param | string | いいえ | ||
type | string | いいえ | ||
inner_error | innerError | 追加の詳細を含む内部エラー。 | いいえ |
innerError
追加の詳細を含む内部エラー。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
code | innerErrorCode | 内部エラー オブジェクトのエラー コード。 | いいえ | |
content_filter_results | contentFilterPromptResults | コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。 | いいえ |
innerErrorCode
内部エラー オブジェクトのエラー コード。
説明: 内部エラー オブジェクトのエラー コード。
型: string
既定:
列挙型名: InnerErrorCode
列挙値:
Value | 説明 |
---|---|
ResponsibleAIPolicyViolation | プロンプトが、コンテンツ フィルター規則の 1 つ以上に違反しました。 |
dalleErrorResponse
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
エラー | dalleError | いいえ |
dalleError
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
param | string | いいえ | ||
type | string | いいえ | ||
inner_error | dalleInnerError | 追加の詳細を含む内部エラー。 | いいえ |
dalleInnerError
追加の詳細を含む内部エラー。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
code | innerErrorCode | 内部エラー オブジェクトのエラー コード。 | いいえ | |
content_filter_results | dalleFilterResults | コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。 | いいえ | |
revised_prompt | string | イメージの生成に使用されたプロンプト (プロンプトにリビジョンがある場合)。 | いいえ |
contentFilterResultBase
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
filtered | boolean | はい |
contentFilterSeverityResult
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
filtered | boolean | はい | ||
severity | string | いいえ |
contentFilterDetectedResult
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
filtered | boolean | はい | ||
detected | boolean | いいえ |
contentFilterDetectedWithCitationResult
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
citation | object | いいえ |
citation のプロパティ
URL
件名 | 種類 | 説明 | Default |
---|---|---|---|
URL | string |
ライセンス
名前 | 種類 | 説明 | Default |
---|---|---|---|
ライセンス | string |
contentFilterResultsBase
コンテンツ フィルタリングの結果に関する情報。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
sexual | contentFilterSeverityResult | いいえ | ||
violence | contentFilterSeverityResult | いいえ | ||
hate | contentFilterSeverityResult | いいえ | ||
self_harm | contentFilterSeverityResult | いいえ | ||
profanity | contentFilterDetectedResult | いいえ | ||
エラー | errorBase | いいえ |
contentFilterPromptResults
コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
sexual | contentFilterSeverityResult | いいえ | ||
violence | contentFilterSeverityResult | いいえ | ||
hate | contentFilterSeverityResult | いいえ | ||
self_harm | contentFilterSeverityResult | いいえ | ||
profanity | contentFilterDetectedResult | いいえ | ||
エラー | errorBase | いいえ | ||
脱獄 | contentFilterDetectedResult | いいえ |
contentFilterChoiceResults
コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 サード パーティのテキストと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
sexual | contentFilterSeverityResult | いいえ | ||
violence | contentFilterSeverityResult | いいえ | ||
hate | contentFilterSeverityResult | いいえ | ||
self_harm | contentFilterSeverityResult | いいえ | ||
profanity | contentFilterDetectedResult | いいえ | ||
エラー | errorBase | いいえ | ||
protected_material_text | contentFilterDetectedResult | いいえ | ||
protected_material_code | contentFilterDetectedWithCitationResult | いいえ |
promptFilterResult
要求内の 1 つのプロンプトのコンテンツ フィルター処理結果。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
prompt_index | integer | いいえ | ||
content_filter_results | contentFilterPromptResults | コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。 | いいえ |
promptFilterResults
要求内の 0 個以上のプロンプトのコンテンツ フィルター処理結果。 ストリーミング要求の場合、プロンプトが異なると、結果は異なるタイミングや異なる順序で届く可能性があります。
このコンポーネントに対して定義されているプロパティはありません。
dalleContentFilterResults
コンテンツ フィルタリングの結果に関する情報。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
sexual | contentFilterSeverityResult | いいえ | ||
violence | contentFilterSeverityResult | いいえ | ||
hate | contentFilterSeverityResult | いいえ | ||
self_harm | contentFilterSeverityResult | いいえ |
dalleFilterResults
コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
sexual | contentFilterSeverityResult | いいえ | ||
violence | contentFilterSeverityResult | いいえ | ||
hate | contentFilterSeverityResult | いいえ | ||
self_harm | contentFilterSeverityResult | いいえ | ||
profanity | contentFilterDetectedResult | いいえ | ||
脱獄 | contentFilterDetectedResult | いいえ |
chatCompletionsRequestCommon
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
温度 | 数値 | 使用するサンプリング温度 (0 から 2)。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 一般に、これと top_p の両方ではなく、いずれかを変更することをお勧めします。 |
いいえ | 1 |
top_p | 数値 | 温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。 一般に、これと temperature の両方ではなく、いずれかを変更することをお勧めします。 |
いいえ | 1 |
stream | boolean | 設定すると、ChatGPT と同様に部分的なメッセージ デルタが送信されます。 トークンは、使用可能になるとデータのみのサーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージによって終了します。 |
いいえ | False |
stop | 文字列または配列 | API がそれ以上のトークンの生成を停止する、最大 4 つのシーケンス。 | いいえ | |
max_tokens | integer | 生成された回答に許可されるトークンの最大数。 既定では、モデルが返すことができるトークンの数は (4096 - プロンプト トークン) になります。 現時点では、max_completion_tokens を優先してこの値は非推奨になっており、o1 シリーズのモデルとは互換性がありません。 |
いいえ | 4096 |
max_completion_tokens | integer | 可視出力トークンや推論トークンなど、完了するために生成できるトークンの数の上限。 | いいえ | |
presence_penalty | 数値 | -2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。 | いいえ | 0 |
frequency_penalty | 数値 | -2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。 | いいえ | 0 |
logit_bias | オブジェクト | 指定したトークンが入力候補に表示される可能性を変更します。 トークン (トークナイザーのトークン ID で指定) を関連付けられたバイアス値 (-100 から 100) にマップする json オブジェクトを受け入れます。 数学的には、サンプリングの前にモデルによって生成されたロジットにバイアスが追加されます。 正確な効果はモデルごとに異なりますが、-1 から 1 の値では選択の可能性が低下または増加し、-100 や 100 などの値では、関連するトークンの禁止または排他的な選択になります。 | いいえ | |
ユーザー | string | エンド ユーザーを表す一意の識別子。これは、Azure OpenAI が不正使用を監視および検出するのに役立ちます。 | いいえ |
createCompletionRequest
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
prompt | 文字列または配列 | 文字列、文字列の配列、トークンの配列、またはトークン配列の配列としてエンコードされた、補完を生成するためのプロンプト。 <|endoftext|> はトレーニング中にモデルが認識するドキュメント区切り記号であるため、プロンプトを指定しない場合、モデルは新しいドキュメントの先頭からであるかのように生成します。 |
はい | |
best_of | integer | サーバー側で best_of 入力候補を生成し、"最適なもの" (トークンあたりの対数確率が最高のもの) を返します。 結果をストリーミングすることはできません。n とともに使用すると、best_of は入力候補の数を制御し、n は返す数を指定します。best_of は n より大きくする必要があります。注: このパラメーターにより多くの入力候補が生成されるため、トークン クォータがすぐに消費される可能性があります。 慎重に使用し、 max_tokens と stop の設定が合理的であることを確認してください。 |
いいえ | 1 |
echo | boolean | 入力候補に加えてプロンプトをエコーバックします。 |
いいえ | False |
frequency_penalty | 数値 | -2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。 |
いいえ | 0 |
logit_bias | オブジェクト | 指定したトークンが入力候補に表示される可能性を変更します。 トークン (GPT トークナイザーのトークン ID で指定) を関連付けられたバイアス値 (-100 から 100) にマップする JSON オブジェクトを受け入れます。 数学的には、サンプリングの前にモデルによって生成されたロジットにバイアスが追加されます。 正確な効果はモデルごとに異なりますが、-1 から 1 の値では選択の可能性が低下または増加し、-100 や 100 などの値では、関連するトークンの禁止または排他的な選択になります。 たとえば、<|endoftext|> トークンが生成されないように、 {"50256": -100} を渡すことができます。 |
いいえ | なし |
logprobs | integer | logprobs の最も可能性の高い出力トークンと、選択したトークンのログ確率を含めます。 たとえば、logprobs が 5 の場合、API は可能性が最も高い 5 個のトークンの一覧を返します。 API は常に、サンプリングされたトークンの logprob を返します。そのため、応答には、最大 logprobs+1 の要素が含まれる可能性があります。logprobs の最大値は 5 です。 |
いいえ | なし |
max_tokens | integer | 補完の中で生成できるトークンの最大数。 プロンプトのトークン数と max_tokens の合計は、モデルのコンテキスト長を超えることはできません。 |
いいえ | 16 |
n | integer | プロンプトごとに生成する入力候補の数。 注: このパラメーターにより多くの入力候補が生成されるため、トークン クォータがすぐに消費される可能性があります。 慎重に使用し、 max_tokens と stop の設定が合理的であることを確認してください。 |
いいえ | 1 |
presence_penalty | 数値 | -2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。 |
いいえ | 0 |
シード | integer | 指定されている場合、このシステムは、同じ seed とパラメーターを使用して繰り返された要求に対して同じ結果を返せるように、決定論的にサンプリングを行うように最善を尽くします。決定性は保証されないため、バックエンドでの変更を監視するには、 system_fingerprint 応答パラメーターを参照する必要があります。 |
いいえ | |
stop | 文字列または配列 | API がそれ以上のトークンの生成を停止する、最大 4 つのシーケンス。 返されるテキストに停止シーケンスは含まれません。 |
いいえ | |
stream | boolean | 部分的な進行状況をストリーム バックするかどうか。 設定されている場合、トークンは使用可能になるとデータのみのサーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージによって終了します。 |
いいえ | False |
suffix | string | 挿入されたテキストの入力候補の後に付加されるサフィックス。 このパラメーターは、 gpt-3.5-turbo-instruct に対してのみサポートされます。 |
いいえ | なし |
温度 | 数値 | 使用するサンプリング温度 (0 から 2)。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 一般に、これと top_p の両方ではなく、いずれかを変更することをお勧めします。 |
いいえ | 1 |
top_p | 数値 | 温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。 一般に、これと temperature の両方ではなく、いずれかを変更することをお勧めします。 |
いいえ | 1 |
ユーザー | string | エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。 |
いいえ |
createCompletionResponse
API からの補完応答を表します。 注: (チャット エンドポイントとは異なり)、ストリーム応答オブジェクトと非ストリーム応答オブジェクトはどちらも同じシェイプを共有します。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
ID | string | チャット入力候補の一意識別子。 | はい | |
選択肢(複数) | 配列 | 入力プロンプト用にモデルが生成した入力候補の一覧。 | はい | |
作成済 | integer | 入力候補が作成されたときの Unix タイムスタンプ (秒単位)。 | はい | |
モデル | string | 補完に使用されるモデル。 | はい | |
prompt_filter_results | promptFilterResults | 要求内の 0 個以上のプロンプトのコンテンツ フィルター処理結果。 ストリーミング要求の場合、プロンプトが異なると、結果は異なるタイミングや異なる順序で届く可能性があります。 | いいえ | |
system_fingerprint | string | このフィンガープリントは、モデルが実行されるバックエンド構成を表します。seed 要求パラメーターと組み合わせて使うと、決定性に影響を与える可能性のあるバックエンドの変更がいつ行われたかを把握できます。 |
いいえ | |
オブジェクト | enum | オブジェクトの種類であり、これは常に "text_completion" になります 使用できる値: text_completion |
はい | |
使用量 | completionUsage | 入力候補要求の使用状況の統計情報。 | いいえ |
createChatCompletionRequest
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
温度 | 数値 | 使用するサンプリング温度 (0 から 2)。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 一般に、これと top_p の両方ではなく、いずれかを変更することをお勧めします。 |
いいえ | 1 |
top_p | 数値 | 温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。 一般に、これと temperature の両方ではなく、いずれかを変更することをお勧めします。 |
いいえ | 1 |
stream | boolean | 設定すると、ChatGPT と同様に部分的なメッセージ デルタが送信されます。 トークンは、使用可能になるとデータのみのサーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージによって終了します。 |
いいえ | False |
stop | 文字列または配列 | API がそれ以上のトークンの生成を停止する、最大 4 つのシーケンス。 |
いいえ | |
max_tokens | integer | チャット入力候補で生成できるトークンの最大数。 入力トークンと生成されたトークンの合計の長さは、モデルのコンテキスト長によって制限されます。 |
いいえ | |
max_completion_tokens | integer | 可視出力トークンや推論トークンなど、完了するために生成できるトークンの数の上限。 | いいえ | |
presence_penalty | 数値 | -2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。 |
いいえ | 0 |
frequency_penalty | 数値 | -2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。 |
いいえ | 0 |
logit_bias | オブジェクト | 指定したトークンが入力候補に表示される可能性を変更します。 トークン (トークナイザーのトークン ID で指定) を関連付けられたバイアス値 (-100 から 100) にマップする JSON オブジェクトを受け入れます。 数学的には、サンプリングの前にモデルによって生成されたロジットにバイアスが追加されます。 正確な効果はモデルごとに異なりますが、-1 から 1 の値では選択の可能性が低下または増加し、-100 や 100 などの値では、関連するトークンの禁止または排他的な選択になります。 |
いいえ | なし |
ユーザー | string | エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。 |
いいえ | |
messages | 配列 | これまでの会話を構成するメッセージの一覧。 | はい | |
data_sources | 配列 | それらを使用する Azure OpenAI チャット拡張機能の構成エントリ。 この追加仕様は、Azure OpenAI とのみ互換性があります。 |
いいえ | |
logprobs | boolean | 出力トークンのログ確率を返すかどうかを指定します。 true に設定すると、message の content に含まれる各出力トークンのログ確率が返されます。 |
いいえ | False |
top_logprobs | integer | 0 から 20 までの整数値を指定します。これは、各トークンの位置において、最も出現確率の高いトークンをいくつ返すかを表します。各トークンには、それぞれ関連するログ確率が付与されます。 このパラメーターを使う場合、logprobs は true に設定する必要があります。 |
いいえ | |
n | integer | 入力メッセージごとに生成するチャット入力候補の選択肢の数。 選択肢全体で生成されたトークンの数に基づいて課金されることに注意してください。 コストを最小限に抑えるために、n を 1 のままにします。 |
いいえ | 1 |
parallel_tool_calls | ParallelToolCalls | ツールの使用中に並列関数の呼び出しを有効にするかどうか。 | いいえ | True |
応答形式 | ResponseFormatText または ResponseFormatJsonObject または ResponseFormatJsonSchema | モデルが出力する必要がある形式を指定するオブジェクト。 GPT-4o、GPT-4o mini、GPT-4 Turbo、および gpt-3.5-turbo-1106 以降のすべての GPT-3.5 Turbo モデルと互換性があります。{ "type": "json_schema", "json_schema": {...} } に設定すると、モデルと提供された JSON スキーマが一致することを保証する構造化出力が有効になります。{ "type": "json_object" } に設定すると、JSON モードが有効になります。これにより、モデルが生成するメッセージが有効な JSON であることが保証されます。重要: JSON モードを使うときは、システムまたはユーザー メッセージ経由で、JSON を生成するようにユーザー自身がモデルに指示することも必要です。 これがないと、トークンの上限に達するまで、モデルはいつまでも空白のストリームを生成する可能性があります。その結果、実行時間が長く、一見 "止まっている" ように見える要求が発生します。 また、 finish_reason="length" の場合、メッセージの内容が部分的に切り取られる可能性があります。これは、世代が max_tokens を超えたか、会話がコンテキストの最大長を超えたことを示します。 |
いいえ | |
シード | integer | この機能はベータ版です。 指定されている場合、このシステムは、同じ seed とパラメーターを使用して繰り返された要求に対して同じ結果を返せるように、決定論的にサンプリングを行うように最善を尽くします。決定性は保証されないため、バックエンドでの変更を監視するには、 system_fingerprint 応答パラメーターを参照する必要があります。 |
いいえ | |
tools | 配列 | モデルによって呼び出されるツールの一覧。 現在のところ、関数のみがツールとしてサポートされています。 これを使用し、モデルによって JSON 入力が生成される関数の一覧を提供します。 最大 128 個の関数がサポートされています。 |
いいえ | |
tool_choice | chatCompletionToolChoiceOption | モデルによって呼び出されるツールを制御します (ある場合)。 none は、モデルでツールが呼び出されず、代わりにメッセージが生成されることを意味します。 auto は、モデルがメッセージを生成するか、1 つ以上のツールを呼び出すかを選択できることを意味します。 required は、モデルが 1 つ以上のツールを呼び出す必要があることを意味します。 {"type": "function", "function": {"name": "my_function"}} を介して特定のツールを指定すると、モデルでそのツールの呼び出しが強制されます。 ツールが存在しない場合は、none が既定値です。 ツールが存在する場合は、auto が既定値です。 |
いいえ | |
function_call | string または chatCompletionFunctionCallOption | tool_choice を優先して非推奨になりました。モデルによって呼び出される関数を制御します (そのような関数がある場合)。 none は、モデルが関数を呼び出さず、代わりにメッセージを生成することを示します。auto の場合、メッセージを生成するか、関数を呼び出すか、モデルで選択できます。{"name": "my_function"} で特定の関数を指定すると、モデルはその関数を強制的に呼び出します。関数が存在しない場合は、 none が既定値です。 関数が存在する場合は、auto が既定値です。 |
いいえ | |
functions | 配列 | 非推奨になりました。tools を使用してください。モデルが JSON 入力を生成する可能性がある関数の一覧。 |
いいえ |
chatCompletionFunctions
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
description | string | モデルが関数をいつどのように呼び出すかを選ぶために使われる、関数の動作の説明。 | いいえ | |
name | string | 呼び出される関数の名前。 a-z、A-Z、0-9 を使用するか、アンダースコアとダッシュを含める必要があります。最大長は 64 です。 | はい | |
parameters | FunctionParameters | 関数が受け取るパラメーター。JSON スキーマ オブジェクトとして記述されます。 例についてはこちらのガイドを参照してください。形式に関するドキュメントについては JSON スキーマのリファレンスを参照してください。 parameters を省略すると、空のパラメーター リストを持つ関数が定義されます。 |
いいえ |
chatCompletionFunctionCallOption
{"name": "my_function"}
で特定の関数を指定すると、モデルはその関数を強制的に呼び出します。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
name | string | 呼び出す関数の名前。 | はい |
chatCompletionRequestMessage
このコンポーネントには、次のいずれかを指定できます。
chatCompletionRequestSystemMessage
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
content | 文字列または配列 | システム メッセージのコンテンツ。 | はい | |
role | enum | メッセージ作成者のロール。この場合 system 。使用できる値: system |
はい | |
名前 | string | 参加者の名前 (省略可能)。 同じロールの参加者を区別するためのモデル情報を指定します。 | いいえ |
chatCompletionRequestUserMessage
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
content | 文字列または配列 | ユーザー メッセージのコンテンツ。 |
はい | |
role | enum | メッセージ作成者のロール。この場合 user 。使用できる値: user |
はい | |
名前 | string | 参加者の名前 (省略可能)。 同じロールの参加者を区別するためのモデル情報を指定します。 | いいえ |
chatCompletionRequestAssistantMessage
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
content | 文字列または配列 | アシスタント メッセージのコンテンツ。 tool_calls または function_call が指定されていない限り、必須です。 |
いいえ | |
refusal | string | アシスタントによる拒否メッセージ。 | いいえ | |
role | enum | メッセージ作成者のロール。この場合 assistant 。使用できる値: assistant |
はい | |
名前 | string | 参加者の名前 (省略可能)。 同じロールの参加者を区別するためのモデル情報を指定します。 | いいえ | |
tool_calls | chatCompletionMessageToolCalls | 関数呼び出しなど、モデルによって生成されるツール呼び出し。 | いいえ | |
function_call | オブジェクト | 非推奨となり、tool_calls に置き換えられました。 モデルによって生成された、呼び出される関数の名前と引数。 |
いいえ |
function_call のプロパティ
arguments
名前 | 種類 | 説明 | Default |
---|---|---|---|
引数 | string | モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを作成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。 |
name
名前 | 種類 | 説明 | Default |
---|---|---|---|
name | string | 呼び出す関数の名前。 |
chatCompletionRequestToolMessage
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
role | enum | メッセージ作成者のロール。この場合 tool 。使用できる値: tool |
はい | |
content | 文字列または配列 | ツール メッセージのコンテンツ。 | はい | |
tool_call_id | string | このメッセージが応答しているツール呼び出し。 | はい |
chatCompletionRequestFunctionMessage
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
role | enum | メッセージ作成者のロール。この場合 function 。使用可能な値: function |
はい | |
コンテンツ | string | 関数メッセージのコンテンツ。 | はい | |
名前 | string | 呼び出す関数の名前。 | はい |
chatCompletionRequestSystemMessageContentPart
このコンポーネントには、次のいずれかを指定できます。
chatCompletionRequestUserMessageContentPart
このコンポーネントには、次のいずれかを指定できます。
chatCompletionRequestAssistantMessageContentPart
このコンポーネントには、次のいずれかを指定できます。
chatCompletionRequestToolMessageContentPart
このコンポーネントには、次のいずれかを指定できます。
chatCompletionRequestMessageContentPartText
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | enum | コンテンツ パーツの種類。 使用できる値: text |
はい | |
text | string | テキスト コンテンツ。 | はい |
chatCompletionRequestMessageContentPartImage
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | enum | コンテンツ パーツの種類。 使用できる値: image_url |
はい | |
image_url | オブジェクト | はい |
image_url のプロパティ
URL
件名 | 種類 | 説明 | Default |
---|---|---|---|
URL | string | 画像の URL または base64 でエンコードされた画像データのいずれか。 |
詳細
名前 | 種類 | 説明 | Default |
---|---|---|---|
詳細 | string | 画像の詳細レベルを指定します。 詳細については、Vision ガイドをご覧ください。 | auto |
chatCompletionRequestMessageContentPartRefusal
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | enum | コンテンツ パーツの種類。 使用できる値: refusal |
はい | |
refusal | string | モデルによって生成された拒否メッセージ。 | はい |
azureChatExtensionConfiguration
1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張するために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | azureChatExtensionType | 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張する ために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。 |
はい |
azureChatExtensionType
1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張するために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。
説明: 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張するために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。
型: string
既定:
列挙型名: AzureChatExtensionType
列挙値:
Value | 説明 |
---|---|
azure_search | Azure OpenAI チャット拡張機能としての Azure Search の使用を表します。 |
azure_cosmos_db | Azure OpenAI チャット拡張機能としての Azure Cosmos DB の使用を表します。 |
azureSearchChatExtensionConfiguration
Azure OpenAI チャット拡張機能として使用するときの Azure Search の構成可能なオプションの特定の表現。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | azureChatExtensionType | 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張する ために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。 |
はい | |
parameters | azureSearchChatExtensionParameters | Azure OpenAI チャット拡張機能として使用するときの Azure Search のパラメーター。 | いいえ |
azureSearchChatExtensionParameters
Azure OpenAI チャット拡張機能として使用するときの Azure Search のパラメーター。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
認証 | onYourDataApiKeyAuthenticationOptions または onYourDataSystemAssignedManagedIdentityAuthenticationOptions または onYourDataUserAssignedManagedIdentityAuthenticationOptions | はい | ||
top_n_documents | integer | 構成されたクエリの特徴量に対して構成されている上位のドキュメントの数。 | いいえ | |
in_scope | boolean | クエリをインデックス付きデータの使用に制限するかどうか。 | いいえ | |
strictness | integer | 検索の関連性フィルター処理の構成された厳密度。 厳密度が高いほど、精度は高くなりますが、回答の再現率は低くなります。 | いいえ | |
role_information | string | ふるまいに関する指示と、応答の生成時に参照する必要があるコンテキストをモデルに与えます。 アシスタントのパーソナリティを説明し、応答の書式設定方法を伝えることができます。 これには 100 個までのトークンという上限があり、トークン全体の上限としてカウントされます。 | いいえ | |
endpoint | string | 使用する Azure Search リソースの絶対エンドポイント パス。 | はい | |
index_name | string | 参照先の Azure Search リソースで使用できるインデックスの名前。 | はい | |
fields_mapping | azureSearchIndexFieldMappingOptions | 構成済みの Azure Search リソースを使用する場合のフィールドの処理方法を制御する省略可能な設定。 | いいえ | |
query_type | azureSearchQueryType | Azure OpenAI チャット拡張機能として使用するときに実行する必要がある Azure Search 取得クエリの種類。 | いいえ | |
semantic_configuration | string | クエリの追加のセマンティック構成。 | いいえ | |
filter | string | 検索フィルター。 | いいえ | |
embedding_dependency | onYourDataEndpointVectorizationSource または onYourDataDeploymentNameVectorizationSource | いいえ |
azureSearchIndexFieldMappingOptions
構成済みの Azure Search リソースを使用する場合のフィールドの処理方法を制御する省略可能な設定。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
title_field | string | タイトルとして使用するインデックス フィールドの名前。 | いいえ | |
url_field | string | URL として使用するインデックス フィールドの名前。 | いいえ | |
filepath_field | string | ファイルパスとして使用するインデックス フィールドの名前。 | いいえ | |
content_fields | 配列 | コンテンツとして扱う必要があるインデックス フィールドの名前。 | いいえ | |
content_fields_separator | string | コンテンツ フィールドで使用する区切り記号パターン。 | いいえ | |
vector_fields | 配列 | ベクトル データを表すフィールドの名前。 | いいえ |
azureSearchQueryType
Azure OpenAI チャット拡張機能として使用するときに実行する必要がある Azure Search 取得クエリの種類。
説明: Azure OpenAI チャット拡張機能として使用するときに実行する必要がある Azure Search 取得クエリの種類。
型: string
既定:
列挙型名: AzureSearchQueryType
列挙値:
Value | 説明 |
---|---|
simple | 既定の単純なクエリ パーサーを表します。 |
"セマンティック" | 高度なセマンティック モデリングのセマンティック クエリ パーサーを表します。 |
vector | 計算されたデータに対するベクトル検索を表します。 |
vector_simple_hybrid | 単純なクエリ戦略とベクター データの組み合わせを表します。 |
vector_semantic_hybrid | セマンティック検索とベクター データ クエリの組み合わせを表します。 |
azureCosmosDBChatExtensionConfiguration
Azure OpenAI チャット拡張機能として使用するときの Azure Cosmos DB の構成可能なオプションの特定の表現。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | azureChatExtensionType | 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張する ために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。 |
はい | |
parameters | azureCosmosDBChatExtensionParameters | MongoDB 仮想コアに Azure Cosmos DB を使用するときに Azure OpenAI On Your Data チャット拡張機能の構成に 使用するパラメーター。 |
いいえ |
azureCosmosDBChatExtensionParameters
Azure Cosmos DB for MongoDB 仮想コアを使用するときに Azure OpenAI On Your Data チャット拡張機能の構成に使用するパラメーター。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
認証 | onYourDataConnectionStringAuthenticationOptions | 接続文字列を使用する場合の Azure OpenAI On Your Data の認証オプション。 | はい | |
top_n_documents | integer | 構成されたクエリの特徴量に対して構成されている上位のドキュメントの数。 | いいえ | |
in_scope | boolean | クエリをインデックス付きデータの使用に制限するかどうか。 | いいえ | |
strictness | integer | 検索の関連性フィルター処理の構成された厳密度。 厳密度が高いほど、精度は高くなりますが、回答の再現率は低くなります。 | いいえ | |
role_information | string | ふるまいに関する指示と、応答の生成時に参照する必要があるコンテキストをモデルに与えます。 アシスタントのパーソナリティを説明し、応答の書式設定方法を伝えることができます。 これには 100 個までのトークンという上限があり、トークン全体の上限としてカウントされます。 | いいえ | |
database_name | string | Azure Cosmos DB で使用する MongoDB 仮想コア データベースの名前。 | はい | |
container_name | string | Azure Cosmos DB リソース コンテナーの名前。 | はい | |
index_name | string | Azure Cosmos DB で使用する MongoDB 仮想コア インデックスの名前。 | はい | |
fields_mapping | azureCosmosDBFieldMappingOptions | 構成済みの Azure Cosmos DB リソースを使用するときのフィールドの処理方法を制御するオプションの設定。 | はい | |
embedding_dependency | onYourDataEndpointVectorizationSource または onYourDataDeploymentNameVectorizationSource | はい |
azureCosmosDBFieldMappingOptions
構成済みの Azure Cosmos DB リソースを使用するときのフィールドの処理方法を制御するオプションの設定。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
title_field | string | タイトルとして使用するインデックス フィールドの名前。 | いいえ | |
url_field | string | URL として使用するインデックス フィールドの名前。 | いいえ | |
filepath_field | string | ファイルパスとして使用するインデックス フィールドの名前。 | いいえ | |
content_fields | 配列 | コンテンツとして扱う必要があるインデックス フィールドの名前。 | はい | |
content_fields_separator | string | コンテンツ フィールドで使用する区切り記号パターン。 | いいえ | |
vector_fields | 配列 | ベクトル データを表すフィールドの名前。 | はい |
onYourDataAuthenticationOptions
Azure OpenAI On Your Data の認証オプション。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Azure OpenAI On Your Data でサポートされる認証タイプ。 | はい |
onYourDataAuthenticationType
Azure OpenAI On Your Data でサポートされる認証タイプ。
説明: Azure OpenAI On Your Data でサポートされる認証タイプ。
型: string
既定:
列挙型名: OnYourDataAuthenticationType
列挙値:
Value | 説明 |
---|---|
api_key | API キーによる認証。 |
connection_string | 接続文字列による認証。 |
system_assigned_managed_identity | システム割り当てマネージド ID による認証。 |
user_assigned_managed_identity | ユーザー割り当てマネージド ID による認証。 |
onYourDataApiKeyAuthenticationOptions
API キーを使用する場合の Azure OpenAI On Your Data の認証オプション。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Azure OpenAI On Your Data でサポートされる認証タイプ。 | はい | |
key | string | 認証に使用する API キー。 | いいえ |
onYourDataConnectionStringAuthenticationOptions
接続文字列を使用する場合の Azure OpenAI On Your Data の認証オプション。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Azure OpenAI On Your Data でサポートされる認証タイプ。 | はい | |
connection_string | string | 認証に使用する接続文字列。 | いいえ |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
システム割り当てマネージド ID を使用する場合の Azure OpenAI On Your Data の認証オプション。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Azure OpenAI On Your Data でサポートされる認証タイプ。 | はい |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
ユーザー割り当てマネージド ID を使用する場合の Azure OpenAI On Your Data の認証オプション。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Azure OpenAI On Your Data でサポートされる認証タイプ。 | はい | |
managed_identity_resource_id | string | 認証に使用するユーザー割り当てマネージド ID のリソース ID。 | いいえ |
onYourDataVectorizationSource
ベクトル検索を使用した Azure OpenAI On Your Data のベクター化ソースの抽象表現。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | ベクトル検索で使用するデータのベクター化を構成するために Azure OpenAI On Your Data が使用できる ソースを表します。 |
はい |
onYourDataVectorizationSourceType
ベクトル検索で使用するデータのベクター化を構成するために Azure OpenAI On Your Data が使用できるソースを表します。
説明: ベクトル検索で使用するデータのベクター化を構成するために Azure OpenAI On Your Data が使用できる
ソースを表します。
型: string
既定:
列挙型名: OnYourDataVectorizationSourceType
列挙値:
Value | 説明 |
---|---|
endpoint | Azure OpenAI 埋め込みモデルに対するパブリック サービス呼び出しによって実行されるベクター化を表します。 |
deployment_name | 使用する Ada モデル デプロイ名を表します。 このモデル デプロイは、同じ Azure OpenAI リソース内に存在する必要がありますが、 On Your Data は、パブリック呼び出しではなく内部呼び出し経由でこのモデルデプロイを使用します。これにより、プライベート ネットワークで ベクトル検索が有効になります。 |
onYourDataDeploymentNameVectorizationSource
同じ Azure OpenAI リソース内の内部埋め込みモデル デプロイ名に基づくベクトル検索を適用するときに Azure OpenAI On Your Data で使用されるベクター化ソースの詳細。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | ベクトル検索で使用するデータのベクター化を構成するために Azure OpenAI On Your Data が使用できる ソースを表します。 |
はい | |
deployment_name | string | ベクター化に使用するモデル デプロイの名前を指定します。 このモデル デプロイは同じ Azure OpenAI リソース内に存在する必要がありますが、On Your Data は、パブリック呼び出しではなく内部呼び出し経由でこのモデルデプロイを使用します。これにより、プライベート ネットワークでベクトル検索が有効になります。 | いいえ |
onYourDataEndpointVectorizationSource
埋め込みのためにパブリック Azure OpenAI エンドポイント呼び出しに基づくベクトル検索を適用するときに Azure OpenAI On Your Data で使用されるベクター化ソースの詳細。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | ベクトル検索で使用するデータのベクター化を構成するために Azure OpenAI On Your Data が使用できる ソースを表します。 |
はい | |
認証 | onYourDataApiKeyAuthenticationOptions | API キーを使用する場合の Azure OpenAI On Your Data の認証オプション。 | いいえ | |
endpoint | string | ベクター化に使用するエンドポイントを指定します。 このエンドポイントは同じ Azure OpenAI リソース内に存在する必要がありますが、On Your Data は、パブリックではなく内部呼び出し経由でこのエンドポイントを使用します。これにより、プライベート ネットワークでもベクトル検索を使用できます。 | いいえ |
azureChatExtensionsMessageContext
対応するチャット入力候補応答の生成に Azure OpenAI チャット拡張機能が関係しているときに使用できる追加のコンテキスト情報の表現。 このコンテキスト情報は、一致する拡張機能を使うように構成されている Azure OpenAI 要求を使用するときにのみ、値が設定されます。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
citations | 配列 | 応答でアシスタント メッセージを生成するために使用されるデータ ソースの取得結果。 | いいえ | |
意図 | string | チャット履歴から検出されたインテント。コンテキストを引き継ぐ次のターンに渡すために使用されます。 | いいえ |
citation
チャット補完応答メッセージの引用情報。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
content | string | 引用の内容。 | はい | |
タイトル | string | 引用のタイトル。 | いいえ | |
URL | string | 引用の URL。 | いいえ | |
filepath | string | 引用のファイル パス。 | いいえ | |
chunk_id | string | 引用のチャンク ID。 | いいえ |
chatCompletionMessageToolCall
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
ID | string | ツール呼び出しの ID。 | はい | |
type | toolCallType | ツール呼び出しの種類。この場合 function 。 |
はい | |
関数 | オブジェクト | モデルが呼び出した関数。 | はい |
function のプロパティ
name
名前 | 種類 | 説明 | Default |
---|---|---|---|
name | string | 呼び出す関数の名前。 |
arguments
名前 | 種類 | 説明 | Default |
---|---|---|---|
引数 | string | モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを作成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。 |
toolCallType
ツール呼び出しの種類。この場合 function
。
説明: ツール呼び出しの種類。この場合 function
。
型: string
既定:
列挙型名: ToolCallType
列挙値:
Value | 説明 |
---|---|
関数 | ツール呼び出しの種類は function です。 |
chatCompletionRequestMessageTool
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
tool_call_id | string | このメッセージが応答しているツール呼び出し。 | いいえ | |
content | string | メッセージの内容。 | いいえ |
chatCompletionRequestMessageFunction
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
role | enum | メッセージ作成者のロール。この場合 function 。使用可能な値: function |
いいえ | |
name | string | メッセージの内容。 | いいえ | |
content | string | メッセージの内容。 | いいえ |
createChatCompletionResponse
指定された入力に基づいて、モデルによって返されるチャット入力候補応答を表します。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
ID | string | チャット入力候補の一意識別子。 | はい | |
prompt_filter_results | promptFilterResults | 要求内の 0 個以上のプロンプトのコンテンツ フィルター処理結果。 ストリーミング要求の場合、プロンプトが異なると、結果は異なるタイミングや異なる順序で届く可能性があります。 | いいえ | |
選択肢(複数) | 配列 | チャット入力候補の選択肢の一覧。 n が 1 より大きい場合は複数の値を指定できます。 |
はい | |
作成済 | integer | チャット入力候補が作成されたときの Unix タイムスタンプ (秒単位)。 | はい | |
モデル | string | チャット入力候補に使われるモデル。 | はい | |
system_fingerprint | string | このフィンガープリントは、モデルが実行されるバックエンド構成を表します。seed 要求パラメーターと組み合わせて使うと、決定性に影響を与える可能性のあるバックエンドの変更がいつ行われたかを把握できます。 |
いいえ | |
オブジェクト | enum | オブジェクトの種類。これは常に chat.completion です。使用できる値: chat.completion |
はい | |
使用量 | completionUsage | 入力候補要求の使用状況の統計情報。 | いいえ |
createChatCompletionStreamResponse
指定された入力に基づいて、モデルによって返されるチャット入力候補応答のストリーミングされたチャンクを表します。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
ID | string | チャット入力候補の一意識別子。 各チャンクの ID は同じです。 | はい | |
選択肢(複数) | 配列 | チャット入力候補の選択肢の一覧。 n が 1 より大きい場合は、複数の要素を含めることができます。 |
はい | |
作成済 | integer | チャット入力候補が作成されたときの Unix タイムスタンプ (秒単位)。 各チャンクのタイムスタンプは同じです。 | はい | |
モデル | string | 入力候補を生成するモデル。 | はい | |
system_fingerprint | string | このフィンガープリントは、モデルが実行されるバックエンド構成を表します。seed 要求パラメーターと組み合わせて使うと、決定性に影響を与える可能性のあるバックエンドの変更がいつ行われたかを把握できます。 |
いいえ | |
オブジェクト | enum | オブジェクトの種類。これは常に chat.completion.chunk です。使用できる値: chat.completion.chunk |
はい |
chatCompletionStreamResponseDelta
ストリーミングされたモデル応答によって生成されるチャット入力候補デルタ。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
content | string | チャンク メッセージのコンテンツ。 | いいえ | |
function_call | オブジェクト | 非推奨となり、tool_calls に置き換えられました。 モデルによって生成された、呼び出される関数の名前と引数。 |
いいえ | |
tool_calls | 配列 | いいえ | ||
role | enum | このメッセージの作成者の役割。 使用できる値: system、user、assistant、tool |
いいえ | |
refusal | string | モデルによって生成された拒否メッセージ。 | いいえ |
function_call のプロパティ
arguments
名前 | 種類 | 説明 | Default |
---|---|---|---|
引数 | string | モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを作成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。 |
name
名前 | 種類 | 説明 | Default |
---|---|---|---|
name | string | 呼び出す関数の名前。 |
chatCompletionMessageToolCallChunk
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
インデックス | integer | はい | ||
id | string | ツール呼び出しの ID。 | いいえ | |
type | enum | ツールの型。 現在、function のみがサポートされています。使用可能な値: function |
いいえ | |
関数 | object | いいえ |
function のプロパティ
name
名前 | 種類 | 説明 | Default |
---|---|---|---|
name | string | 呼び出す関数の名前。 |
arguments
名前 | 種類 | 説明 | Default |
---|---|---|---|
引数 | string | モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを作成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。 |
chatCompletionStreamOptions
ストリーミング応答のオプション。 stream: true
に設定した場合はこれのみを設定します。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
include_usage | boolean | 設定されている場合は、data: [DONE] メッセージの前に追加のチャンクがストリームされます。 このチャンクの usage フィールドは要求全体のトークンの使用状況に関する統計情報を示し、choices フィールドは常に空の配列になります。 他のすべてのチャンクにも usage フィールドが含まれますが、null 値です。 |
いいえ |
chatCompletionChoiceLogProbs
選択肢のログ確率情報。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
content | 配列 | ログ確率情報を含むメッセージ コンテンツ トークンの一覧。 | はい | |
refusal | 配列 | ログ確率情報を含むメッセージ拒否トークンの一覧。 | いいえ |
chatCompletionTokenLogprob
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
token | string | トークンです。 | はい | |
logprob | 数値 | このトークンのログ確率。 | はい | |
バイト | 配列 | トークンの UTF-8 バイト表現を表す整数の一覧。 文字が複数のトークンによって表され、そのバイト表現を組み合わせて正しいテキスト表現を生成する必要がある場合に便利です。 トークンのバイト表現がない場合は、null を指定できます。 |
はい | |
top_logprobs | 配列 | このトークン位置にある、最も可能性の高いトークンとそのログ確率の一覧。 まれに、要求したよりも少ない数の top_logprobs が返される場合があります。 |
はい |
chatCompletionResponseMessage
モデルによって生成されたチャット入力候補メッセージ。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
role | chatCompletionResponseMessageRole | 応答メッセージの作成者のロール。 | はい | |
refusal | string | モデルによって生成された拒否メッセージ。 | はい | |
コンテンツ | string | メッセージの内容。 | はい | |
tool_calls | 配列 | 関数呼び出しなど、モデルによって生成されるツール呼び出し。 | いいえ | |
function_call | chatCompletionFunctionCall | 非推奨となり、tool_calls に置き換えられました。 モデルによって生成された、呼び出される関数の名前と引数。 |
いいえ | |
context | azureChatExtensionsMessageContext | 対応するチャット入力候補応答の生成に Azure OpenAI チャット拡張機能が関係しているときに 使用できる追加のコンテキスト情報の表現。 このコンテキスト情報は、一致する拡張機能を使うように 構成されている Azure OpenAI 要求を使用するときにのみ、値が設定されます。 |
いいえ |
chatCompletionResponseMessageRole
応答メッセージの作成者のロール。
説明: 応答メッセージの作成者のロール。
型: string
既定:
列挙値:
- assistant
chatCompletionToolChoiceOption
モデルによって呼び出されるツールを制御します (ある場合)。 none
は、モデルでツールが呼び出されず、代わりにメッセージが生成されることを意味します。 auto
は、モデルがメッセージを生成するか、1 つ以上のツールを呼び出すかを選択できることを意味します。 required
は、モデルが 1 つ以上のツールを呼び出す必要があることを意味します。 {"type": "function", "function": {"name": "my_function"}}
を介して特定のツールを指定すると、モデルでそのツールの呼び出しが強制されます。 ツールが存在しない場合は、none
が既定値です。 ツールが存在する場合は、auto
が既定値です。
このコンポーネントには、次のいずれかを指定できます。
chatCompletionNamedToolChoice
モデルで使用する必要があるツールを指定します。 モデルで特定の関数を強制的に呼び出すために使用します。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | enum | ツールの型。 現在、function のみがサポートされています。使用可能な値: function |
はい | |
関数 | オブジェクト | はい |
function のプロパティ
name
名前 | 種類 | 説明 | Default |
---|---|---|---|
name | string | 呼び出す関数の名前。 |
ParallelToolCalls
ツールの使用中に並列関数の呼び出しを有効にするかどうか。
このコンポーネントに対して定義されているプロパティはありません。
chatCompletionMessageToolCalls
関数呼び出しなど、モデルによって生成されるツール呼び出し。
このコンポーネントに対して定義されているプロパティはありません。
chatCompletionFunctionCall
非推奨となり、tool_calls
に置き換えられました。 モデルによって生成された、呼び出される関数の名前と引数。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
name | string | 呼び出す関数の名前。 | はい | |
引数 | string | モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを作成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。 | はい |
completionUsage
入力候補要求の使用状況の統計情報。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
prompt_tokens | integer | プロンプト内のトークンの数。 | はい | |
completion_tokens | integer | 生成された入力候補内のトークンの数。 | はい | |
total_tokens | integer | 要求内で使われたトークンの合計数 (プロンプトと入力候補の和)。 | はい | |
completion_tokens_details | オブジェクト | 完了に使用されたトークンの内訳。 | いいえ |
completion_tokens_details のプロパティ
reasoning_tokens
名前 | 種類 | 説明 | Default |
---|---|---|---|
reasoning_tokens | integer | 推論のためにモデルによって生成されたトークン。 |
chatCompletionTool
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | enum | ツールの型。 現在、function のみがサポートされています。使用可能な値: function |
はい | |
関数 | FunctionObject | はい |
FunctionParameters
関数が受け取るパラメーター。JSON スキーマ オブジェクトとして記述されます。 例についてはこちらのガイドを参照してください。形式に関するドキュメントについては JSON スキーマのリファレンスを参照してください。
parameters
を省略すると、空のパラメーター リストを持つ関数が定義されます。
このコンポーネントに対して定義されているプロパティはありません。
FunctionObject
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
description | string | モデルが関数をいつどのように呼び出すかを選ぶために使われる、関数の動作の説明。 | いいえ | |
name | string | 呼び出される関数の名前。 a-z、A-Z、0-9 を使用するか、アンダースコアとダッシュを含める必要があります。最大長は 64 です。 | はい | |
parameters | FunctionParameters | 関数が受け取るパラメーター。JSON スキーマ オブジェクトとして記述されます。 例についてはこちらのガイドを参照してください。形式に関するドキュメントについては JSON スキーマのリファレンスを参照してください。 parameters を省略すると、空のパラメーター リストを持つ関数が定義されます。 |
いいえ | |
厳密 | boolean | 関数呼び出しの生成時に厳格なスキーマの準拠を有効にするかどうか。 true に設定すると、モデルは parameters フィールドで定義されている正確なスキーマに従います。 strict が true の場合、JSON スキーマのサブセットのみがサポートされます。 |
いいえ | False |
ResponseFormatText
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | enum | 定義されている応答形式の種類: text 使用できる値: text |
はい |
ResponseFormatJsonObject
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | enum | 定義されている応答形式の種類: json_object 使用できる値: json_object |
はい |
ResponseFormatJsonSchemaSchema
JSON スキーマ オブジェクトとして記述された応答形式のスキーマ。
このコンポーネントに対して定義されているプロパティはありません。
ResponseFormatJsonSchema
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
type | enum | 定義されている応答形式の種類: json_schema 使用できる値: json_schema |
はい | |
json_schema | オブジェクト | はい |
json_schema のプロパティ
description
件名 | 種類 | 説明 | Default |
---|---|---|---|
description | string | 応答形式の目的の説明。その形式で応答する方法を決定するためにモデルによって使用されます。 |
name
名前 | 種類 | 説明 | Default |
---|---|---|---|
name | string | 応答形式の名前。 a-z、A-Z、0-9 を使用するか、アンダースコアとダッシュを含める必要があります。最大長は 64 です。 |
schema
名前 | 種類 | 説明 | Default |
---|---|---|---|
schema | ResponseFormatJsonSchemaSchema | JSON スキーマ オブジェクトとして記述された応答形式のスキーマ。 |
厳密
名前 | 種類 | 説明 | Default |
---|---|---|---|
厳密 | boolean | 出力の生成時に厳格なスキーマの準拠を有効にするかどうか。 true に設定すると、モデルは schema フィールドで定義されている正確なスキーマに常に従います。 strict が true の場合、JSON スキーマのサブセットのみがサポートされます。 |
False |
chatCompletionChoiceCommon
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
インデックス | integer | いいえ | ||
finish_reason | string | いいえ |
createTranslationRequest
翻訳要求。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
file | string | 翻訳するオーディオ ファイル。 | はい | |
プロンプト | string | モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトは英語にする必要があります。 | いいえ | |
応答形式 | audioResponseFormat | 出力の形式を定義します。 | いいえ | |
温度 | 数値 | 0 から 1 の間のサンプリング温度。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 | いいえ | 0 |
audioResponse
response_format が json のときの翻訳または文字起こしの応答
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
text | string | 翻訳または文字起こしされたテキスト。 | はい |
audioVerboseResponse
response_format が verbose_json のときの翻訳または文字起こしの応答
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
text | string | 翻訳または文字起こしされたテキスト。 | はい | |
タスク | string | オーディオ タスクの種類。 | いいえ | |
言語 | string | 言語。 | いいえ | |
duration | 数値 | 期間. | いいえ | |
セグメント | 配列 | いいえ |
audioResponseFormat
出力の形式を定義します。
説明: 出力の形式を定義します。
型: string
既定:
列挙値:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
文字起こし要求。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
file | string | 文字起こしするオーディオ ファイル オブジェクト。 | はい | |
プロンプト | string | モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトはオーディオ言語と一致する必要があります。 | いいえ | |
応答形式 | audioResponseFormat | 出力の形式を定義します。 | いいえ | |
温度 | 数値 | 0 から 1 の間のサンプリング温度。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 | いいえ | 0 |
言語 | string | 入力オーディオの言語。 入力言語を ISO-639-1 形式で提供すると、精度と待機時間が向上します。 | いいえ |
audioSegment
文字起こしまたは翻訳セグメント。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
ID | integer | セグメント識別子。 | いいえ | |
seek | 数値 | セグメントのオフセット。 | いいえ | |
start | 数値 | セグメントの開始オフセット。 | いいえ | |
end | 数値 | セグメントの終了オフセット。 | いいえ | |
text | string | セグメントのテキスト。 | いいえ | |
トークン | 配列 | テキストのトークン。 | いいえ | |
温度 | 数値 | 温度。 | いいえ | |
avg_logprob | 数値 | 平均ログ確率。 | いいえ | |
compression_ratio | 数値 | 圧縮率。 | いいえ | |
no_speech_prob | 数値 | no speech の確率。 |
いいえ |
imageQuality
生成されるイメージの品質。
説明: 生成される画像の品質。
型: string
既定値: standard
列挙型名: Quality
列挙値:
Value | 説明 |
---|---|
standard | 標準品質の場合、標準品質の画像が作成されます。 |
hd | HD 品質の場合、よりきめ細かく、全体の一貫性が高い画像が作成されます。 |
imagesResponseFormat
生成された画像が返される形式です。
説明: 生成された画像が返される形式です。
型: string
既定値: URL
列挙型名: ImagesResponseFormat
列挙値:
Value | 説明 |
---|---|
URL | 生成された画像をダウンロードするための一時的なアクセスを提供する URL。 |
b64_json | 生成された画像は base64 でエンコードされた文字列として返されます。 |
imageSize
生成されたイメージのサイズ。
説明: 生成される画像のサイズ。
型: string
既定値: 1024x1024
列挙型名: Size
列挙値:
Value | 説明 |
---|---|
1792x1024 | 生成される画像の目的のサイズは 1792x1024 ピクセルです。 |
1024x1792 | 生成される画像の目的のサイズは 1024x1792 ピクセルです。 |
1,024 x 1,024 | 生成される画像の目的のサイズは 1024x1024 ピクセルです。 |
imageStyle
生成されたイメージのスタイル。
説明: 生成される画像のスタイル。
型: string
既定値: vivid
列挙型名: Style
列挙値:
Value | 説明 |
---|---|
vivid | vivid の場合、超現実的で劇的な画像が作成されます。 |
natural | natural の場合、より自然で、あまり超現実的ではない画像が作成されます。 |
imageGenerationsRequest
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
prompt | string | 目的のイメージのテキストの説明。 最大長は 4,000 文字です。 | はい | |
n | integer | 生成するイメージの数。 | いいえ | 1 |
size | imageSize | 生成されたイメージのサイズ。 | いいえ | 1,024 x 1,024 |
応答形式 | imagesResponseFormat | 生成された画像が返される形式です。 | いいえ | URL |
ユーザー | string | エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。 | いいえ | |
品質 | imageQuality | 生成されるイメージの品質。 | いいえ | standard |
スタイル | imageStyle | 生成されたイメージのスタイル。 | いいえ | vivid |
generateImagesResponse
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
作成済 | integer | 操作が作成されたときの UNIX タイムスタンプ。 | はい | |
data | 配列 | 操作が成功した場合の結果データ | はい |
imageResult
成功した場合は画像の URL またはエンコードされた画像、それ以外の場合はエラー。
名前 | 種類 | 内容 | 必要 | Default |
---|---|---|---|---|
URL | string | 画像の URL。 | いいえ | |
b64_json | string | base64 でエンコードされた画像 | いいえ | |
content_filter_results | dalleContentFilterResults | コンテンツ フィルタリングの結果に関する情報。 | いいえ | |
revised_prompt | string | イメージの生成に使用されたプロンプト (プロンプトにリビジョンがある場合)。 | いいえ | |
prompt_filter_results | dalleFilterResults | コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。 | いいえ |
入力候補の拡張機能
補完拡張機能は、Azure OpenAI データ プレーン推論仕様の最新 GA バージョンには含まれていません。
Chatmessage
チャット メッセージ オブジェクトは、Azure OpenAI データ プレーン推論仕様の最新 GA バージョンには含まれていません。
テキスト読み上げ
現在、Azure OpenAI データ プレーン推論仕様の最新の Azure OpenAI GA バージョンには含まれていません。この機能については、最新のプレビュー バージョンを参照してください。
次のステップ
モデルと REST API を使用した微調整について説明します。 Azure OpenAI をサポートする基となるモデルに関する記事を確認します。