ai_query
関数
適用対象: Databricks SQL Databricks Runtime
重要
この機能はパブリック プレビュー段階にあります。
既存の Azure Databricks Model Serving エンドポイントを呼び出し、その応答を解析して返します。
さまざまなユース ケースで ai_query
を使用する方法については、次のガイドを参照してください。
要件
- この関数は、Azure Databricks SQL クラシックでは使用できません。
- プロ SQL ウェアハウスでこの機能を使うには、Azure Private Link を有効にする必要があります。
- Databricks Runtime 15.3 以降をお勧めします。 Databricks Runtime 15.2 以下を使用すると、パフォーマンス速度が低下する可能性があります。
- 現行 DLT ウェアハウス チャネルでは、
ai_query()
をサポートする最新の Databricks Runtime バージョンは使用されません。 テーブル プロパティのpipelines.channel
を'preview'
として設定し、ai_query()
を使用します。 サンプル クエリについては、例を参照してください。 - モデルが読み込まれた既存のモデル サービス エンドポイント。 「カスタム モデル提供エンドポイントを作成する」を参照してください。
- ワークスペースは、サポートされている Model Serving リージョンにある必要があります。
- Foundation Model API のクエリは、既定で有効になっています。 カスタム モデルまたは外部モデルを提供するエンドポイントに対してクエリを実行するには:
- Databricks Previews UI でカスタム モデルと外部モデル用の AI_Query を有効にします。
- 「ai_query() を使用して外部モデルにクエリを実行する」を参照してください。
- ai_queryを使用したバッチ推論のパフォーマンスを確認する
Note
- Databricks Runtime 14.2 以降では、この機能は Databricks ワークフローのタスクとして実行されるノートブックなどの Databricks ノートブックでサポートされています。
- Databricks Runtime 14.1 以下の場合、この関数は Databricks ノートブックではサポートされていません。
構文
外部モデルまたは基盤モデルを提供するエンドポイントに対してクエリを実行するには:
ai_query(endpointName, request)
カスタム モデル提供エンドポイントにモデルスキーマをクエリするには:
ai_query(endpointName, request)
カスタム モデル提供エンドポイントにモデルスキーマなしでクエリするには:
ai_query(endpointName, request, returnType, failOnError)
引数
endpointName
: STRING リテラル、Databricks Foundation Model サービス エンドポイントの名前、エンドポイントを提供する外部モデル、または同じワークスペース内のカスタム モデル エンドポイントの呼び出しに使用されるもの。 定義者には、エンドポイントに対するクエリ可能アクセス許可が必要です。request
: 式。エンドポイントの呼び出しに使用される要求。- エンドポイントが、外部モデル提供エンドポイントまたは Databricks Foundation Model API エンドポイントの場合、要求は STRING である必要があります。
- エンドポイントがカスタム モデル提供エンドポイントである場合、要求には単一の列または構造体式を指定できます。 構造体フィールド名は、エンドポイントで予期される入力機能名と一致する必要があります。
returnType
: 式。エンドポイントからの予期される returnType。 これは、from_json 関数 のスキーマ パラメーターに似ています。このパラメーターは、文字列式または schema_of_json の呼び出しの両方を受け入れます。- Databricks Runtime 14.2 以降では、この式が提供されない場合、
ai_query()
はカスタム モデル サービス エンドポイントのモデル スキーマから戻り値の型を自動的に推論します。 - Databricks Runtime 14.1 以下では、この式は、カスタム モデル サービス エンドポイントのクエリするために必要です。
- Databricks Runtime 14.2 以降では、この式が提供されない場合、
failOnError
: (省略可能) 既定値が true のブールリテラル。 このフラグは、エラー状態をai_query
応答に含めるかどうかを示します。 応答形式は、false
に設定されている場合は異なります。modelParameters
(省略可能): 基礎モデルまたは外部モデルを提供するためのチャット、完了、埋め込みモデル パラメーターを含む構造体フィールド。 これらのモデル パラメーターは、データ依存ではなく定数パラメーターである必要があります。 これらのモデル パラメーターが指定されていない場合、または既定値が使用null
に設定されている場合。 既定値が 0.0 のtemperature
を除き、これらのモデル パラメーターの既定値は、 Foundation モデル REST API リファレンスに記載されているものと同じです。
返品
エンドポイントから解析された応答。
failOnError => true
場合、関数は、エンドポイントからの解析された応答である既存の動作と同じ結果を返します。 解析された応答のデータ型は、ai_query
関数のモデル型、モデル スキーマ エンドポイント、またはreturnType
パラメーターから推論されます。failOnError => false
場合、関数は解析された応答とエラー状態文字列を STRUCT オブジェクトとして返します。- 行の推論が成功した場合、
errorStatus
フィールドは null になります。 - モデル エンドポイント エラーが原因で行の推論に失敗した場合、
response
フィールドは null になります。 - 他のエラーが原因で行の推論に失敗した場合、クエリ全体が失敗します。
- 行の推論が成功した場合、
例
max_tokens
とtemperature
でfailOnError
とmodelParameters
を使用したバッチ推論の例を次に示します。 この例では、 concat()
を使用してモデルのプロンプトと推論列を連結する方法も示します。 連結を実行するには、 ||
、 concat()
、 format_string()
の使用など、複数の方法があります。
CREATE OR REPLACE TABLE ${output_table_name} AS (
SELECT
${input_column_name},
AI_QUERY(
"${endpoint}",
CONCAT("${prompt}", ${input_column_name}),
failOnError => false,
modelParameters => named_struct('max_tokens', ${num_output_tokens},'temperature', ${temperature})
) as response
FROM ${input_table_name}
LIMIT ${input_num_rows}
)
外部モデルを提供するエンドポイントに対してクエリを実行する場合:
> SELECT ai_query(
'my-external-model-openai-chat',
'Describe Databricks SQL in 30 words.'
) AS summary
"Databricks SQL is a cloud-based platform for data analytics and machine learning, providing a unified workspace for collaborative data exploration, analysis, and visualization using SQL queries."
Databricks Foundation Model API でサポートされる基盤モデルに対してクエリを実行する場合:
> SELECT *,
ai_query(
'databricks-meta-llama-3-1-70b-instruct',
"Can you tell me the name of the US state that serves the provided ZIP code? zip code: " || pickup_zip
)
FROM samples.nyctaxi.trips
LIMIT 10
必要に応じて、次のように、関数呼び出しのために UDF で ai_query()
の呼び出しをラップすることもできます。
> CREATE FUNCTION correct_grammar(text STRING)
RETURNS STRING
RETURN ai_query(
'databricks-meta-llama-3-1-70b-instruct',
CONCAT('Correct this to standard English:\n', text));
> GRANT EXECUTE ON correct_grammar TO ds;
- DS fixes grammar issues in a batch.
> SELECT
* EXCEPT text,
correct_grammar(text) AS text
FROM articles;
カスタム モデル提供エンドポイントにクエリを実行するには:
> SELECT text, ai_query(
endpoint => 'spam-classification-endpoint',
request => named_struct(
'timestamp', timestamp,
'sender', from_number,
'text', text),
returnType => 'BOOLEAN') AS is_spam
FROM messages
> SELECT ai_query(
'weekly-forecast',
request => struct(*),
returnType => 'FLOAT') AS predicted_revenue
FROM retail_revenue
> SELECT ai_query(
'custom-llama-2-7b-chat',
request => named_struct("messages",
ARRAY(named_struct("role", "user", "content", "What is ML?"))),
returnType => 'STRUCT<candidates:ARRAY<STRING>>')
{"candidates":["ML stands for Machine Learning. It's a subfield of Artificial Intelligence that involves the use of algorithms and statistical models to enable machines to learn from data, make decisions, and improve their performance on a specific task over time."]}
DLT チャネルをプレビューに設定するためのクエリ例:
> create or replace materialized view
ai_query_mv
TBLPROPERTIES('pipelines.channel' = 'PREVIEW') AS
SELECT
ai_query("databricks-dbrx-instruct", text) as response
FROM
messages