Azure AI Foundry を使って Azure OpenAI モデルをデプロイする方法
重要
この記事で "(プレビュー)" と付記されている項目は、現在、パブリック プレビュー段階です。 このプレビューはサービス レベル アグリーメントなしで提供されており、運用環境ではお勧めしません。 特定の機能はサポート対象ではなく、機能が制限されることがあります。 詳しくは、Microsoft Azure プレビューの追加使用条件に関するページをご覧ください。
この記事では、Azure AI Foundry ポータルで Azure OpenAI モデルのデプロイを作成する方法について説明します。
Azure OpenAI Service は、さまざまな機能と価格ポイントを備えた多様なモデル セットを提供しています。 Azure AI Foundry ポータルで Azure OpenAI モデルをデプロイする場合は、プロンプト フローまたは別のツールを使用してデプロイを実行できます。 モデルの可用性はリージョンごとに異なります。 各モデルの詳細については、「Azure OpenAI Service モデル」を参照してください。
Azure AI Foundry プレイグラウンドで Azure OpenAI モデルを変更し、操作するには、まず基本の Azure OpenAI モデルを自分のプロジェクトにデプロイする必要があります。 モデルがデプロイされ、プロジェクトで利用できるようになったら、その REST API エンドポイントをそのまま使用するか、独自のデータやその他のコンポーネント (埋め込みやインデックスなど) でさらにカスタマイズできます。
前提条件
有効な支払い方法を持つ Azure サブスクリプション。 無料または試用版の Azure サブスクリプションは機能しません。 Azure サブスクリプションを持っていない場合は、始めるために有料の Azure アカウントを作成してください。
モデル カタログから Azure OpenAI モデルをデプロイする
Azure AI Foundry ポータル モデル カタログからリアルタイム エンドポイントに gpt-4o-mini
などの Azure OpenAI モデルをデプロイするには、次の手順に従います。
- Azure AI Foundry にサインインします。
- プロジェクトを開いていない場合、プロジェクトを選択します。
- 左側のナビゲーション ウィンドウから [モデル カタログ] を選択します。
[コレクション] フィルターで、[Azure OpenAI] を選択します。
Azure OpenAI コレクションから
gpt-4o-mini
などのモデルを選択します。[デプロイ] を選択してデプロイ ウィンドウを開きます。
モデルをデプロイするリソースを選択します。 リソースがない場合、作成します。
デプロイの名前を指定し、要件に応じて他の既定の設定を変更します。
展開 を選択します。
デプロイの詳細ページが表示されます。 [プレイグラウンドで開く] を選択します。
[コードの表示] を選択すると、デプロイされたモデルをアプリケーションで使用するためのコード サンプルが取得されます。
プロジェクトから Azure OpenAI モデルをデプロイする
または、Azure AI Foundry ポータルでプロジェクトから開始して、デプロイを始めることもできます。
- Azure AI Foundry ポータルでプロジェクトに移動します。
- プロジェクトの左側のサイド バーから、[マイ アセット]、[モデル + エンドポイント] の順に移動します。
- [+ モデルのデプロイ]、[基本モデルのデプロイ] の順に選択します。
- [コレクション] フィルターで、[Azure OpenAI] を選択します。
- Azure OpenAI コレクションから
gpt-4o-mini
などのモデルを選択します。 - [確認] を選択してデプロイ ウィンドウを開きます。
- デプロイの名前を指定し、要件に応じて他の既定の設定を変更します。
- 展開 を選択します。
- デプロイの詳細ページが表示されます。 [プレイグラウンドで開く] を選択します。
- [コードの表示] を選択すると、デプロイされたモデルをアプリケーションで使用するためのコード サンプルが取得されます。
Azure OpenAI モデルの推論
デプロイされたモデルに対して推論を実行するには、プレイグラウンドまたはコード サンプルを使用します。 プレイグラウンドは、モデルをリアルタイムで操作できる Web ベースのインターフェイスです。 プレイグラウンドを使用して、さまざまなプロンプトでモデルをテストし、モデルの応答を確認できます。
アプリケーションでデプロイされたモデルを使用する方法のその他の例については、次の Azure OpenAI クイックスタートを参照してください。
モデルのリージョンの可用性とクォータ制限
Azure OpenAI のモデルでは、モデルの既定のクォータはモデルとリージョンによって異なります。 特定のモデルは、一部のリージョンでのみ使用できます。 可用性とクォータ制限の詳細については、Azure OpenAI サービスのクォータと制限に関するページを参照してください。
モデルのデプロイと推論のクォータ
Azure OpenAI のモデルの場合、デプロイと推論では、リージョンごと、モデル単位でサブスクリプションに割り当てられたクォータが 1 分あたりのトークン数 (TPM) 単位で消費されます。 Azure AI Foundry にサインアップすると、利用可能なモデルのほとんどの既定のクォータを受け取ります。 次に、デプロイの作成時に TPM を各デプロイに割り当てます。これにより、そのモデルの使用可能なクォータから、割り当てた量が引かれます。 クォータ制限に達するまで、デプロイを作成して TPM を割り当て続けることができます。
クォータ制限に達したら、そのモデルの新しいデプロイを作成する唯一の方法は次のとおりです。
- クォータの引き上げフォームを送信して、追加のクォータをリクエストする。
- Azure OpenAI Portal で他のモデル デプロイに割り当てられたクォータを調整して、新しいデプロイのためのトークンを解放する。
クォータの詳細については、「Azure AI Foundry クォータ」と「Azure OpenAI Service のクォータを管理する」を参照してください。
関連するコンテンツ
- Azure AI Foundry でできることについて、詳細を確認します
- Azure AI の FAQ の記事で、よくあるご質問とその回答を確認します