Fabric の AI サービス (プレビュー)
重要
この機能はプレビュー段階にあります。
Azure AI サービスは、開発者と組織が、事前構築済みのカスタマイズ可能な API とモデルを使用して、インテリジェントで最先端の市場対応の責任あるアプリケーションを迅速に作成するのに役立ちます。 Azure AI サービス (以前の Azure Cognitive Services)は、開発者に AI やデータ サイエンスの直接的なスキルや知識のない場合にも役立ちます。 Azure AI サービスの目標は、開発者が、聞いたり、話したり、理解したり、推論し始めたりできるアプリケーションの作成を支援することです。
Fabric には、Azure AI サービスを使用するための 2 つのオプションがあります。
Fabric(プレビュー)での事前構築済みAIモデル
Fabric は Azure AI サービスとシームレスに統合されており、まったく前提条件なしに、事前構築済みの AI モデルを使用してデータを強化できます。 Fabric 認証を利用して AI サービスにアクセスできるため、このオプションを使用することをお勧めします。Fabric 容量に対する使用量はすべて課金されます。 このオプションは現在パブリック プレビュー段階であり、利用できる AI サービスが限られています。
Fabric では、Azure OpenAI Service、Text Analytics、Azure AI 翻訳が既定で提供され、SynapseML と RESTful API の両方がサポートされています。 OpenAI Python ライブラリを使用して、Fabric の Azure OpenAI サービスにアクセスすることもできます。 使用できるモデルの詳細については、Fabric の事前構築済み AI モデルに関するページを参照してください。
鍵を持ち込む (BYOK)
Azure で AI サービスをプロビジョニングし、それらを Fabric から使用するために独自のキーを使用できます。 必要な AI サービスが、事前構築済みの AI モデルでまだサポートされていない場合でも、BYOK (Bring Your Own Key) を使用できます。
BYOK で Azure AI サービスを使用する方法の詳細については、独自のキーを使用する SynapseML の Azure AI サービスに関するページを参照してください。
Fabric の事前構築済みの AI モデル (プレビュー)
Note
事前構築済みの AI モデルは現在プレビューで利用でき、ユーザーあたりの同時要求数に制限を設けたうえで無料で提供されています。 Open AI モデルの場合、制限は 1 ユーザーあたり 1 分間に 20 要求です。
Azure OpenAI Service
REST API、Python SDK。 SynapseML
- GPT-35-turbo: GPT-3.5 モデルでは、自然言語やコードの理解と生成が可能です。 GPT-3.5 ファミリで最も高性能でコスト効率の高いモデルは GPT-3 です。
5 Turbo
オプションはチャット用に最適化されていますが、従来の補完タスクでも適切に動作します。gpt-35-turbo-0125
モデルでは、最大 16,385 個の入力トークンと 4,096 個の出力トークンをサポートします。 - gpt-4 ファミリ:
gpt-4-32k
がサポートされています。 - text-embedding-ada-002 (バージョン 2)、埋め込み API 要求で使用できる埋め込みモデル。 受け付けられる要求トークンの最大数は 8,191 で、返されるベクトルのディメンションは 1,536 です。
Text Analytics
- 言語検出: 入力テキストの言語を検出します
- 感情分析: 入力テキスト内のセンチメントを示す 0 から 1 のスコアを返します
- キー フレーズ抽出: 入力テキスト内の主な話の要点を識別します
- 個人を特定できる情報 (PII) の表現認識: 入力テキスト内の機密情報を識別、分類、編集します
- 名前付きエンティティ認識: 入力テキスト内の既知のエンティティと一般的な名前付きエンティティを識別します
- エンティティ リンク設定: テキストで見つかったエンティティの ID を識別し、あいまいさを解消します
Azure AI Translator
- 翻訳: テキストを翻訳します
- 表記変換: ある言語のテキストを、特定の文字体系から別の文字体系に変換します。
対応リージョン
Azure OpenAI Service を使用可能なリージョン
Fabric の事前構築済み AI サービスが現在利用できる Azure リージョンの一覧については、記事「Fabric および Power BI の Copilot の概要 (プレビュー)」の「利用可能なリージョン」セクションを参照してください。
Text Analytics と Azure AI 翻訳で使用可能なリージョン
Fabric の事前構築済み Text Analytics と Azure AI 翻訳は、この記事に記載されている Azure リージョンで、パブリック プレビューとして使用できるようになりました。 この記事で Microsoft Fabric ホーム リージョンが見つからない場合でも、サポートされているリージョンで Microsoft Fabric 容量を作成できます。 詳細については、「Microsoft Fabric サブスクリプションを購入する」を参照してください。 Fabric ホーム リージョンを決定するには、「Fabric のホーム リージョンを見つける」を参照してください。
アジア太平洋 | ヨーロッパ | アメリカ | 中東およびアフリカ |
---|---|---|---|
オーストラリア東部 | 北ヨーロッパ | ブラジル南部 | 南アフリカ北部 |
オーストラリア南東部 | 西ヨーロッパ | カナダ中部 | アラブ首長国連邦北部 |
インド中部 | フランス中部 | カナダ東部 | |
東アジア | ノルウェー東部 | 米国東部 | |
東日本 | スイス北部 | 米国東部 2 | |
韓国中部 | スイス西部 | 米国中北部 | |
東南アジア | 英国南部 | 米国中南部 | |
インド南部 | 英国西部 | 米国西部 | |
米国西部 2 | |||
米国西部 3 |
消費率
Note
Fabric の事前構築済み AI サービスへの課金は、既存の Power BI Premium または Fabric 容量の一部として、2024 年 11 月 1 に有効になりました。
事前構築済み AI サービスを要求すると、Fabric 容量ユニットが消費されます。 次の表で、AI サービスの使用時に消費される容量ユニット (CU) の数を定義します。
OpenAI 言語モデルの消費率
モデル | コンテキスト | 入力: (1,000 トークンあたり) | 出力 (1,000 トークンあたり) |
---|---|---|---|
GPT-4o-2024-08-06 グローバル デプロイ | 128 K | 84.03 CU 秒 | 336.13 CU 秒 |
GPT-4 | 32 K | 2,016.81 CU 秒 | 4,033.61 CU 秒 |
GPT-3.5-Turbo-0125 | 16,000 | 16.81 CU 秒 | 50.42 CU 秒 |
OpenAI 埋め込みモデルの従量課金レート
モデル | 操作用測定単位 | 従量課金レート |
---|---|---|
text-embedding-ada-002 | 1,000 トークン | 3.36 CU 秒 |
Text Analytics の従量課金レート
操作 | 操作用測定単位 | 従量課金レート |
---|---|---|
言語検出 | 1,000 個のテキスト レコード | 33,613.45 CU 秒 |
感情分析 | 1,000 個のテキスト レコード | 33,613.45 CU 秒 |
キー フレーズ抽出 | 1,000 個のテキスト レコード | 33,613.45 CU 秒 |
個人を特定できる情報エンティティの認識 | 1,000 個のテキスト レコード | 33,613.45 CU 秒 |
固有表現認識 | 1,000 個のテキスト レコード | 33,613.45 CU 秒 |
実体リンク付け | 1,000 個のテキスト レコード | 33,613.45 CU 秒 |
要約 | 1,000 個のテキスト レコード | 67,226.89 CU秒 |
Text Translator の従量課金レート
操作 | 操作用測定単位 | 従量課金レート |
---|---|---|
翻訳 | 100 万文字 | 336,134.45 CU 秒 |
Transliterate | 100 万文字 | 336,134.45 CU 秒 |
Fabric の AI サービスの従量課金レートの変更
従量課金レートは、いつでも変更される場合があります。 Microsoft では、メールや製品内通知を介した通知を提供するために、合理的な努力を行います。 変更は、Microsoft のリリース ノートまたは Microsoft Fabric ブログの中に記載されている日付に有効になるものとします。 Fabric の AIサービス従量課金レートの変更により、使用する必要がある容量ユニット (CU) が大幅に増加する場合は、選択した支払い方法で使用できるキャンセル オプションを使用できます。
使用状況の監視
タスクに関連付けられているワークロード測定によって、Fabric の事前構築済み AI サービスの料金が決まります。 たとえば、AI サービス使用状況が Spark ワークロードから派生する場合は、Fabric Capacity Metrics アプリで AI 使用状況が Spark 課金メーターにまとめられて請求されます。
例
オンライン ショップ オーナーは、SynapseML と Spark を使用し、数百万個もの製品を関連するカテゴリに分類します。 現在、ショップ オーナーはハードコーディングされたロジックを適用して、生の "製品タイプ" をクリーンアップし、カテゴリにマップしています。 ただし、所有者は、新しいネイティブ Fabric OpenAI LLM (Large Language Model) エンドポイントの使用に切り替える予定です。 このとき、データが行ごとに LLM に対して繰り返し処理され、"製品名"、"説明"、"技術的詳細" などに基づいて製品が分類されます。
Spark の使用に予想されるコストは 1,000 CU です。 OpenAI の使用に予想されるコストは約 300 CU です。
新しいロジックをテストするには、最初に Spark ノートブックの対話型実行で反復処理します。 実行の操作名には、"Notebook Interactive Run" を使用します。所有者は、"Notebook Interactive Run" の下に 1300 CU の全体的な使用量が表示され、Spark 課金メーターがその全使用量をカバーすることを期待しています。
ショップ オーナーがロジックを検証した後に、通常の実行を設定すると、"Spark ジョブのスケジュール実行" という処理名の下に全使用量 1300 CU が示され、Spark 課金メーターが使用量全体を表すようになると予想されます。