次の方法で共有


Azure AI モデル推論にモデルを追加して構成する

重要

この記事で "(プレビュー)" と付記されている項目は、現在、パブリック プレビュー段階です。 このプレビューはサービス レベル アグリーメントなしで提供されており、運用環境ではお勧めしません。 特定の機能はサポート対象ではなく、機能が制限されることがあります。 詳しくは、Microsoft Azure プレビューの追加使用条件に関するページをご覧ください。

推論エンドポイントにおいて推論に使用可能なモデルを決定および構成することができます。 特定のモデルが構成されたら、要求でそのモデル名またはデプロイ名を指定することで、そこから予測を生成できます。 これを使用するためにコードをさらに変更する必要はありません。

この記事では、Azure AI Foundry において Azure AI モデル推論に新しいモデルを追加する方法について説明します。

前提条件

この記事を完了するには、以下が必要です。

モデルの追加

次の手順を使用して、Azure AI モデル推論エンドポイントにモデルを追加できます。

  1. Azure AI Foundry ポータル内の [モデルカタログ] セクションに移動します。

  2. 関心のあるモデルまでスクロールして選択します。

    モデル カタログ内のモデルを検索し、その 1 つを選択して詳細を表示する方法を示すアニメーション。

  3. モデル カードでモデルの詳細を確認できます。

  4. [デプロイ] を選択します。

  5. 追加の契約条件が必要なモデル プロバイダーの場合は、それらの条件に同意するように求められます。 たとえば、Mistral モデルがこのケースです。 [サブスクリプションとデプロイ] を選択して、これらのケースの使用条件に同意します。

    Mistral-Large モデルの契約条件に同意する方法を示すスクリーンショット。

  6. この時点でデプロイ設定を構成できます。 既定では、デプロイはデプロイするモデルの名前を受け取ります。 デプロイ名は、この特定のモデル デプロイにルーティングする要求の model パラメーターで使用されます。 これにより、特定の構成をアタッチする際に、そのモデルに特定の名前を構成することもできます。 たとえば、厳密な Content Safety コンテンツ フィルターを使用するモデルの o1-preview-safe などです。

    ヒント

    各モデルはさまざまな種類のデプロイをサポートでき、異なるデータ所在地またはスループットの保証が提供されます。 詳細については、デプロイの種類に関するページを参照してください。

  7. プロジェクトに応じて、Azure AI サービス接続が自動的に選択されます。 [カスタマイズ] オプションを使用し、ニーズに基づいて接続を変更します。 デプロイの種類 [Standard] にデプロイする場合は、Azure AI サービス リソースの Azure リージョン内でそのモデルが提供されている必要があります。

    必要に応じてデプロイをカスタマイズする方法を示すスクリーンショット。

    ヒント

    目的のリソースが一覧にない場合は、それへの接続の作成が必要になることがあります。 Azure AI Foundry ポータルでプロジェクトでの Azure AI モデル推論サービスの構成に関する記事を参照してください。

  8. [デプロイ] を選択します。

  9. デプロイが完了すると、新しいモデルがページ内の一覧に表示され、使用する準備が整います。

モデルを管理する

Azure AI Foundry ポータルを使用して、リソース内の既存のモデル デプロイを管理できます。

  1. Azure AI Foundry ポータル内の [モデル + エンドポイント] セクションに移動します。

  2. Azure AI サービス リソースへの接続までスクロールします。 モデル デプロイは、接続ごとにグループ化され、表示されます。

    特定の接続のもとで使用可能なモデルの一覧を示すスクリーンショット。

  3. 各接続で使用可能なモデルの一覧が表示されます。 関心のあるモデル デプロイを選択します。

  4. 必要に応じて、デプロイを [編集] または [削除] します。

プレイグラウンドでデプロイをテストする

プレイグラウンドを使用して、Azure AI Foundry ポータルで新しいモデルを操作できます。

Note

プレイグラウンドは、Azure AI Foundry で AI プロジェクトを操作する場合にのみ使用できます。 Azure AI Foundry のすべての機能へのフル アクセスを取得するための AI プロジェクトを作成します。

  1. Azure AI Foundry ポータル[プレイグランド] セクションに移動します。

  2. デプロイしたモデルの種類に応じて、必要なプレイグラウンドを選択します。 この場合は、[チャット プレイグラウンド] を選択します。

  3. [デプロイ] ドロップダウンの [設定] の下で、作成したモデル デプロイの名前を選択します。

    プレイグラウンドで使用するモデル デプロイを選択する方法を示すスクリーンショット。

  4. プロンプトを入力し、出力を表示します。

  5. さらに、[コードの表示] を使用できるため、プログラムでモデル デプロイにアクセスする方法の詳細を確認することができます。

重要

この記事で "(プレビュー)" と付記されている項目は、現在、パブリック プレビュー段階です。 このプレビューはサービス レベル アグリーメントなしで提供されており、運用環境ではお勧めしません。 特定の機能はサポート対象ではなく、機能が制限されることがあります。 詳しくは、Microsoft Azure プレビューの追加使用条件に関するページをご覧ください。

推論エンドポイントにおいて推論に使用可能なモデルを決定および構成することができます。 特定のモデルが構成されたら、要求でそのモデル名またはデプロイ名を指定することで、そこから予測を生成できます。 これを使用するためにコードをさらに変更する必要はありません。

この記事では、Azure AI Foundry において Azure AI モデル推論に新しいモデルを追加する方法について説明します。

前提条件

この記事を完了するには、以下が必要です。

  • Azure AI サービスの Azure CLIcognitiveservices 拡張機能をインストールします。

    az extension add -n cognitiveservices
    
  • このチュートリアル内の一部のコマンドでは、ユーザーのシステムにインストールされていない場合がある jq ツールを使用します。 インストール手順については、ダウンロードjqを参照してください。

  • 次の情報を特定します。

    • Azure のサブスクリプション ID。

    • Azure AI サービス リソース名。

    • Azure AI サービス リソースがデプロイされているリソース グループ。

モデルの追加

モデルを追加するには、まずデプロイするモデルを特定する必要があります。 使用可能なモデルに対しては、次のようにクエリを実行できます。

  1. Azure サブスクリプションにログインします。

    az login
    
  2. 複数のサブスクリプションがある場合は、リソースが配置されているサブスクリプションを選択します。

    az account set --subscription $subscriptionId>
    
  3. 使用する予定の Azure AI サービス リソースとリソース グループの名前を使用して、次の環境変数を設定します。

    accountName="<ai-services-resource-name>"
    resourceGroupName="<resource-group>"
    
  4. Azure AI サービス アカウントをまだ作成していない場合は、次のように作成できます。

    az cognitiveservices account create -n $accountName -g $resourceGroupName --custom-domain $accountName
    
  5. まず、使用可能なモデルと、どの SKU かを見てみましょう。 次のコマンドは、使用可能なすべてのモデル定義を一覧表示します。

    az cognitiveservices account list-models \
        -n $accountName \
        -g $resourceGroupName \
    | jq '.[] | { name: .name, format: .format, version: .version, sku: .skus[0].name, capacity: .skus[0].capacity.default }'
    
  6. 出力は次のようになります。

    {
      "name": "Phi-3.5-vision-instruct",
      "format": "Microsoft",
      "version": "2",
      "sku": "GlobalStandard",
      "capacity": 1
    }
    
  7. デプロイするモデルを特定します。 必要なプロパティは nameformatversionsku です。 デプロイの種類によっては、容量も必要になる場合があります。

    ヒント

    すべての SKU ですべてのモデルを使用可能なわけではないことに注意してください。

  8. モデル デプロイをリソースに追加します。 次の例では、Phi-3.5-vision-instruct を追加します。

    az cognitiveservices account deployment create \
        -n $accountName \
        -g $resourceGroupName \
        --deployment-name Phi-3.5-vision-instruct \
        --model-name Phi-3.5-vision-instruct \
        --model-version 2 \
        --model-format Microsoft \
        --sku-capacity 1 \
        --sku-name GlobalStandard
    
  9. モデルを使用する準備ができました。

別のデプロイ名を付ける限り、必要に応じて、同じモデルを複数回デプロイできます。 この機能は、Content Safety など、特定のモデルのさまざまな構成をテストする場合に役立ちます。

展開を管理する

CLI を使用すると、使用可能なすべてのデプロイを表示できます。

  1. 次のコマンドを実行して、アクティブなすべてのデプロイを表示します。

    az cognitiveservices account deployment list -n $accountName -g $resourceGroupName
    
  2. 特定のデプロイの詳細を表示できます。

    az cognitiveservices account deployment show \
        --deployment-name "Phi-3.5-vision-instruct" \
        -n $accountName \
        -g $resourceGroupName
    
  3. 特定のデプロイは次のように削除できます。

        az cognitiveservices account deployment delete \
        --deployment-name "Phi-3.5-vision-instruct" \
        -n $accountName \
        -g $resourceGroupName
    

モデルを使用する

Azure AI モデル推論内にデプロイされたモデルは、リソースの Azure AI モデル推論エンドポイントを使用して利用できます。 要求を作成する際に、パラメーター model を指定し、作成したモデル デプロイ名を挿入します。 次のコードを使用して、推論エンドポイントの URI をプログラムで取得できます。

推論エンドポイント

az cognitiveservices account show  -n $accountName -g $resourceGroupName | jq '.properties.endpoints["Azure AI Model Inference API"]'

Azure AI モデル推論エンドポイントに要求を行うには、ルート models を追加します (https://<resource>.services.ai.azure.com/models など)。 エンドポイントの API リファレンスについては、Azure AI モデル推論 API リファレンス ページを参照してください。

推論キー

az cognitiveservices account keys list  -n $accountName -g $resourceGroupName

重要

この記事で "(プレビュー)" と付記されている項目は、現在、パブリック プレビュー段階です。 このプレビューはサービス レベル アグリーメントなしで提供されており、運用環境ではお勧めしません。 特定の機能はサポート対象ではなく、機能が制限されることがあります。 詳しくは、Microsoft Azure プレビューの追加使用条件に関するページをご覧ください。

推論エンドポイントにおいて推論に使用可能なモデルを決定および構成することができます。 特定のモデルが構成されたら、要求でそのモデル名またはデプロイ名を指定することで、そこから予測を生成できます。 これを使用するためにコードをさらに変更する必要はありません。

この記事では、Azure AI Foundry において Azure AI モデル推論に新しいモデルを追加する方法について説明します。

前提条件

この記事を完了するには、以下が必要です。

  • Azure CLI をインストールします。

  • 次の情報を特定します。

    • Azure のサブスクリプション ID。

    • Azure AI サービス リソース名。

    • Azure AI サービス リソースがデプロイされているリソース グループ。

    • デプロイするモデル名、プロバイダー、バージョン、SKU。 これは、Azure AI Foundry ポータルまたは Azure CLI を使用して特定できます。 この例では、次のモデルをデプロイします。

      • モデル名:: Phi-3.5-vision-instruct
      • プロバイダー: Microsoft
      • バージョン:2
      • デプロイの種類: グローバル標準

このチュートリアルについて

この記事の中の例は、Azure-Samples/azureai-model-inference-bicep リポジトリに含まれるサンプル コードに基づいています。 ファイル内容のコピーや貼り付けをする必要なく、ローカル環境でコマンドを実行するには、次のコマンドを使用してリポジトリをクローンし、そのコーディング言語のフォルダーに移動します。

git clone https://github.com/Azure-Samples/azureai-model-inference-bicep

この例のファイルは、次の場所にあります。

cd azureai-model-inference-bicep/infra

モデルの追加

  1. テンプレート ai-services-deployment-template.bicep を使用して、モデル デプロイについて説明します。

    ai-services-deployment-template.bicep

    @description('Name of the Azure AI services account')
    param accountName string
    
    @description('Name of the model to deploy')
    param modelName string
    
    @description('Version of the model to deploy')
    param modelVersion string
    
    @allowed([
      'AI21 Labs'
      'Cohere'
      'Core42'
      'DeepSeek'
      'Meta'
      'Microsoft'
      'Mistral AI'
      'OpenAI'
    ])
    @description('Model provider')
    param modelPublisherFormat string
    
    @allowed([
        'GlobalStandard'
        'Standard'
        'GlobalProvisioned'
        'Provisioned'
    ])
    @description('Model deployment SKU name')
    param skuName string = 'GlobalStandard'
    
    @description('Content filter policy name')
    param contentFilterPolicyName string = 'Microsoft.DefaultV2'
    
    @description('Model deployment capacity')
    param capacity int = 1
    
    resource modelDeployment 'Microsoft.CognitiveServices/accounts/deployments@2024-04-01-preview' = {
      name: '${accountName}/${modelName}'
      sku: {
        name: skuName
        capacity: capacity
      }
      properties: {
        model: {
          format: modelPublisherFormat
          name: modelName
          version: modelVersion
        }
        raiPolicyName: contentFilterPolicyName == null ? 'Microsoft.Nill' : contentFilterPolicyName
      }
    }
    
  2. デプロイを実行します。

    RESOURCE_GROUP="<resource-group-name>"
    ACCOUNT_NAME="<azure-ai-model-inference-name>" 
    MODEL_NAME="Phi-3.5-vision-instruct"
    PROVIDER="Microsoft"
    VERSION=2
    
    az deployment group create \
        --resource-group $RESOURCE_GROUP \
        --template-file ai-services-deployment-template.bicep \
        --parameters accountName=$ACCOUNT_NAME modelName=$MODEL_NAME modelVersion=$VERSION modelPublisherFormat=$PROVIDER
    

モデルを使用する

Azure AI モデル推論内にデプロイされたモデルは、リソースの Azure AI モデル推論エンドポイントを使用して利用できます。 要求を作成する際に、パラメーター model を指定し、作成したモデル デプロイ名を挿入します。

次のステップ