GitHub モデルから Azure AI モデル推論にアップグレードする
生成 AI アプリケーションを開発する場合は、GitHub モデルを使用して AI モデルを検索して無料で実験できます。 プレイグラウンドと無料の API の使用には、1 分あたりの要求数、1 日あたりの要求数、要求あたりのトークン数、同時要求数のレート制限があります。 レート制限を受けた場合、さらに要求を行うには、該当したレート制限がリセットされるまで待つ必要があります。
アプリケーションを運用環境に移行する準備ができたら、Azure AI サービス リソースを Azure サブスクリプションにデプロイしてエクスペリエンスをアップグレードし、Azure AI モデル推論サービスの使用を開始できます。 コードで他に変更する必要はありません。
次の記事では、GitHub モデルから作業を開始し、Azure AI モデル推論を使用して Azure AI サービス リソースをデプロイする方法について説明します。
前提条件
このチュートリアルを完了するには、以下が必要です。
- GitHub モデルにアクセスできる GitHub アカウント。
- Azure サブスクリプション。 お持ちでない場合は、モデルを運用環境にデプロイする準備ができたときに、Azure アカウントを作成するか、従量課金制アカウントに更新するように求められます。
Azure AI モデル推論にアップグレードする
プレイグラウンドと無料 API の使用のレート制限は、モデルでの実験や AI アプリケーションの開発に役立ちます。 アプリケーションを運用環境に移行する準備ができたら、有料の Azure アカウントのキーとエンドポイントを使用します。 コードで他に変更する必要はありません。
キーとエンドポイントを取得するには:
[GitHub モデル] に進み、関心のあるモデルを選択します。
モデルのプレイグラウンドで、[API キーの取得] を選択します。
[運用キーの取得] を選択します。
Azure アカウントをお持ちでない場合は、[アカウントの作成] を選択し、手順に従ってアカウントを作成します。
Azure アカウントをお持ちの場合は、[もう一度サインインする] を選択します。
既存のアカウントが無料アカウントの場合は、まず従量課金制プランにアップグレードする必要があります。 アップグレードしたら、プレイグラウンドに戻り、もう一度 [API キーの取得] を選択し、アップグレードしたアカウントでサインインします。
Azure アカウントにサインインすると、Azure AI Studio> GitHub が表示されます。 AI Studio に初期モデルの詳細を読み込むには、1 分から 2 分かかる場合があります。
ページにはモデルの詳細が読み込まれます。 [デプロイ] ボタンを選択して、モデルをアカウントにデプロイします。
デプロイが完了すると、モデルの API キーとエンドポイントが [概要] に表示されます。 運用環境でモデルを使用するには、コード内でこれらの値を使用します。
この時点で、選択したモデルを使用する準備は整っています。
新しいエンドポイントを使用するようにコードをアップグレードする
Azure AI サービス リソースが構成されたら、コードからそのリソースの使用を開始できます。 Azure AI サービスのリソースを使用するには、[概要] セクションで入手可能なエンドポイントの URL とキーが必要です。
サポートされている SDK のいずれかを使用して、エンドポイントから予測を取得できます。 次の SDK が正式にサポートされています。
- OpenAI SDK
- Azure OpenAI SDK
- Azure AI 推論 SDK
詳細と例については、サポートされている言語と SDK のセクションを参照してください。 次の例は、新しくデプロイされたモデルで Azure AI モデル推論 SDK を使用する方法を示しています。
pip のように、パッケージ マネージャーを使用してパッケージ azure-ai-inference
をインストールします。
pip install azure-ai-inference>=1.0.0b5
警告
Azure AI サービス リソースには、Python のバージョン azure-ai-inference>=1.0.0b5
が必要です。
その後、パッケージを使用してモデルを使用できます。 次の例では、チャット入力候補を使用してクライアントを作成する方法を示します。
import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential
model = ChatCompletionsClient(
endpoint="https://<resource>.services.ai.azure.com/models",
credential=AzureKeyCredential(os.environ["AZUREAI_ENDPOINT_KEY"]),
)
サンプルを確認し、API リファレンス ドキュメントを参照して、作業を開始してください。
最初のチャット補完を生成します。
from azure.ai.inference.models import SystemMessage, UserMessage
response = client.complete(
messages=[
SystemMessage(content="You are a helpful assistant."),
UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
],
model="mistral-large"
)
print(response.choices[0].message.content)
パラメーター model="<deployment-name>
を使用して、要求をこのデプロイにルーティングします。 デプロイは、特定の構成下で特定のモデルのエイリアスとして機能します。 Azure AI サービスがデプロイをルーティングする方法については、ルーティングの概念ページを参照してください。
重要
すべてのモデルが既に構成されている GitHub モデルとは反対に、Azure AI サービス リソースを使用すると、エンドポイントで利用できるモデルと構成を制御することができます。
model
パラメーターで指定する前に、使用する予定の数のモデルを追加します。 リソースにさらにモデルを追加する方法について説明します。
追加機能を確認する
Azure AI モデル推論は、GitHub モデルでは使用できない次のような追加機能をサポートしています。
- モデル カタログを参照して、GitHub モデルでは使用できない追加のモデルを確認します。
- コンテンツ フィルタリングを構成します。
- レート制限を構成します (特定のモデルの場合)。
- 追加のデプロイ SKU (特定のモデル用) を確認します。
- プライベート ネットワークを構成します。
問題が発生しましたか?
その他のヘルプについては、FAQ セクションを参照してください。
次のステップ
- Azure AI Studio でモデル カタログについて確認する。
- エンドポイントにさらにモデルを追加します。