次の方法で共有


Get Embeddings - Get Embeddings

指定されたテキスト プロンプトの埋め込みベクトルを返します。 このメソッドは、指定されたエンドポイント上の /embeddings ルートに対して REST API 呼び出しを行います。

POST https:///embeddings?api-version=2024-05-01-preview

URI パラメーター

名前 / 必須 説明
api-version
query True

string

minLength: 1

この操作に使用する API バージョン。

要求ヘッダー

名前 必須 説明
extra-parameters

ExtraParameters

REST API によって定義されていない追加のパラメーターが JSON 要求ペイロードで渡された場合の動作を制御します。 これにより、HTTP 要求ヘッダー extra-parametersが設定されます。

要求本文

名前 必須 説明
input True

string[]

埋め込むテキストを入力します。トークンの文字列または配列としてエンコードされます。 1 つの要求に複数の入力を埋め込むには、文字列の配列またはトークン配列の配列を渡します。

dimensions

integer (int32)

随意。 結果の出力埋め込みで必要なディメンションの数。 null を渡すと、モデルは既定値を使用します。 モデルが値またはパラメーターをサポートしていない場合は、422 エラーを返します。

encoding_format

EmbeddingEncodingFormat

随意。 返される埋め込みの目的の形式。

input_type

EmbeddingInputType

随意。 入力の型。 モデルが値またはパラメーターをサポートしていない場合は、422 エラーを返します。

model

string

エンドポイントで複数のモデルが使用可能な場合に使用する特定の AI モデルの ID。

応答

名前 説明
200 OK

EmbeddingsResult

要求は成功しました。

Other Status Codes

Azure.Core.Foundations.ErrorResponse

予期しないエラー応答。

ヘッダー

x-ms-error-code: string

セキュリティ

api-key

型: apiKey
/: header

OAuth2Auth

型: oauth2
フロー: implicit
Authorization URL (承認 URL): https://login.microsoftonline.com/common/oauth2/v2.0/authorize

スコープ

名前 説明
https://ml.azure.com/.default

maximum set embeddings
minimum set embeddings

maximum set embeddings

要求のサンプル

POST https:///embeddings?api-version=2024-05-01-preview


{
  "input": [
    "This is a very good text"
  ],
  "dimensions": 1024,
  "encoding_format": "float",
  "input_type": "text",
  "model": "my-model-name"
}

応答のサンプル

{
  "id": "cknxthfa",
  "data": [
    {
      "index": 0,
      "object": "embedding",
      "embedding": [
        0,
        0,
        0,
        0,
        0,
        0,
        0,
        0,
        0,
        0,
        0,
        0
      ]
    }
  ],
  "object": "list",
  "model": "my-model-name",
  "usage": {
    "prompt_tokens": 15,
    "total_tokens": 15
  }
}

minimum set embeddings

要求のサンプル

POST https:///embeddings?api-version=2024-05-01-preview

{
  "input": [
    "This is a very good text"
  ]
}

応答のサンプル

{
  "id": "cknxthfa",
  "data": [
    {
      "index": 0,
      "object": "embedding",
      "embedding": [
        0,
        0,
        0,
        0,
        0,
        0,
        0,
        0,
        0,
        0,
        0,
        0
      ]
    }
  ],
  "object": "list",
  "model": "my-model-name",
  "usage": {
    "prompt_tokens": 15,
    "total_tokens": 15
  }
}

定義

名前 説明
Azure.Core.Foundations.Error

エラー オブジェクト。

Azure.Core.Foundations.ErrorResponse

エラーの詳細を含む応答。

Azure.Core.Foundations.InnerError

エラーに関するより具体的な情報を含むオブジェクト。 Microsoft One API のガイドラインに従って - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

EmbeddingEncodingFormat

生成する埋め込みの種類を指定します。 uint8int8ubinarybinaryなどの圧縮埋め込み型は、データの整合性を損なうことなくストレージ コストを削減できます。 モデルが値またはパラメーターをサポートしていない場合は、422 エラーを返します。 モデルでサポートされている値については、モデルのドキュメントを参照してください。

EmbeddingInputType

埋め込み検索に使用される入力の種類を表します。

EmbeddingItem

1 つの埋め込み関連度比較の表現。

EmbeddingsOptions

埋め込み要求の構成情報。

EmbeddingsResult

埋め込み要求からの応答データの表現。 埋め込みではテキスト文字列の関連性が測定され、検索、クラスタリング、推奨事項、その他の同様のシナリオでよく使用されます。

EmbeddingsUsage

この要求と応答で使用されるトークンの量の測定。

ExtraParameters

REST API によって定義されていない追加のパラメーターが JSON 要求ペイロードで渡された場合の動作を制御します。

Azure.Core.Foundations.Error

エラー オブジェクト。

名前 説明
code

string

サーバー定義の一連のエラー コードの 1 つ。

details

Azure.Core.Foundations.Error[]

この報告されたエラーの原因となった特定のエラーに関する詳細の配列。

innererror

Azure.Core.Foundations.InnerError

エラーに関する現在のオブジェクトよりも具体的な情報を含むオブジェクト。

message

string

エラーの人間が判読できる表現。

target

string

エラーのターゲット。

Azure.Core.Foundations.ErrorResponse

エラーの詳細を含む応答。

名前 説明
error

Azure.Core.Foundations.Error

エラー オブジェクト。

Azure.Core.Foundations.InnerError

エラーに関するより具体的な情報を含むオブジェクト。 Microsoft One API のガイドラインに従って - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

名前 説明
code

string

サーバー定義の一連のエラー コードの 1 つ。

innererror

Azure.Core.Foundations.InnerError

内部エラー。

EmbeddingEncodingFormat

生成する埋め込みの種類を指定します。 uint8int8ubinarybinaryなどの圧縮埋め込み型は、データの整合性を損なうことなくストレージ コストを削減できます。 モデルが値またはパラメーターをサポートしていない場合は、422 エラーを返します。 モデルでサポートされている値については、モデルのドキュメントを参照してください。

説明
base64

Base64 文字列としてエンコードされた埋め込みのバイナリ表現を取得します。 OpenAI Python ライブラリは、通常のように中間の 10 進表現を使用するのではなく、API からエンコードされたバイナリ データとして埋め込みを取得します。

binary

署名付きバイナリ埋め込みを取り戻す

float

完全な精度の埋め込みを取り戻す

int8

サインインした int8 埋め込みを元に戻す

ubinary

署名されていないバイナリ埋め込みを取り戻す

uint8

符号なし int8 埋め込みを取り戻す

EmbeddingInputType

埋め込み検索に使用される入力の種類を表します。

説明
document

入力がベクター データベースに格納されているドキュメントを表します。

query

入力が、ベクター データベース内の最も関連性の高いドキュメントを検索する検索クエリを表します。

text

入力が一般的なテキスト入力であることを示します。

EmbeddingItem

1 つの埋め込み関連度比較の表現。

名前 説明
embedding

number[] (float)

入力プロンプトの埋め込み値の一覧。 これらは、提供された入力のベクトルベースの関連度の測定を表します。 または、埋め込みベクターの base64 でエンコードされた文字列。

index

integer (int32)

EmbeddingItem が対応するプロンプトのインデックス。

object enum:

embedding

この埋め込み項目のオブジェクト型。 常に embeddingされます。

EmbeddingsOptions

埋め込み要求の構成情報。

名前 説明
dimensions

integer (int32)

随意。 結果の出力埋め込みで必要なディメンションの数。 null を渡すと、モデルは既定値を使用します。 モデルが値またはパラメーターをサポートしていない場合は、422 エラーを返します。

encoding_format

EmbeddingEncodingFormat

随意。 返される埋め込みの目的の形式。

input

string[]

埋め込むテキストを入力します。トークンの文字列または配列としてエンコードされます。 1 つの要求に複数の入力を埋め込むには、文字列の配列またはトークン配列の配列を渡します。

input_type

EmbeddingInputType

随意。 入力の型。 モデルが値またはパラメーターをサポートしていない場合は、422 エラーを返します。

model

string

エンドポイントで複数のモデルが使用可能な場合に使用する特定の AI モデルの ID。

EmbeddingsResult

埋め込み要求からの応答データの表現。 埋め込みではテキスト文字列の関連性が測定され、検索、クラスタリング、推奨事項、その他の同様のシナリオでよく使用されます。

名前 説明
data

EmbeddingItem[]

要求で送信されたプロンプトの値を埋め込みます。

id

string

埋め込み結果の一意識別子。

model

string

この結果の生成に使用されるモデル ID。

object enum:

list

埋め込み結果のオブジェクト型。 常に listされます。

usage

EmbeddingsUsage

埋め込み API を使用したトークン入力の使用量カウント。

EmbeddingsUsage

この要求と応答で使用されるトークンの量の測定。

名前 説明
prompt_tokens

integer (int32)

要求内のトークンの数。

total_tokens

integer (int32)

この要求/応答で処理されたトークンの合計数。 要求内のトークンの数と等しい必要があります。

ExtraParameters

REST API によって定義されていない追加のパラメーターが JSON 要求ペイロードで渡された場合の動作を制御します。

説明
drop

サービスは、要求ペイロード内の追加のパラメーターを無視 (ドロップ) します。 既知のパラメーターのみがバックエンド AI モデルに渡されます。

error

要求ペイロードで追加のパラメーターが検出された場合、サービスはエラーになります。 これがサービスの既定値です。

pass-through

サービスは、バックエンド AI モデルに追加のパラメーターを渡します。