次の方法で共有


Azure AI モデル推論とは

Azure AI モデル推論を使用すると、Azure AI モデル カタログにおいて使用可能な最も強力なモデルにアクセスできます。 モデルは、OpenAI、Microsoft、Meta、Mistral、Cohere、G42、AI21 Labs など、業界内の主要なモデル プロバイダーから提供されています。 これらのモデルをソフトウェア ソリューションと統合して、コンテンツ生成、要約、画像理解、セマンティック検索、コード生成などの幅広いタスクを提供できます。

Azure AI モデル推論には、モデルをインフラストラクチャ上でホストせずに API として使用する方法が用意されています。 モデルは Microsoft が管理するインフラストラクチャでホストされ、モデル プロバイダーのモデルへの API ベースのアクセスが可能になります。 API ベースのアクセスにより、モデルにアクセスするコストが大幅に削減され、プロビジョニング エクスペリエンスがシンプルになります。

Azure AI モデル推論は Azure AI サービスの一部であり、ユーザーは、Python、C#、JavaScript、Java などの複数の言語で REST APISDK を使用してこのサービスにアクセスできます。 また、接続を構成することで Azure AI Foundry から Azure AI モデル推論を使用することもできます。

モデル

OpenAI、Microsoft、Meta、Mistral、Cohere、G42、AI21 Labs など、業界の主要なモデル プロバイダーにアクセスできます。 モデル プロバイダーはライセンス条項を定義し、モデルの利用価格を設定します。 次の一覧は、使用できるすべてのモデルを示しています。

ヒント

モデル、機能、詳細情報を詳しく見るには、モデルに関する記事を参照してください。

プロバイダー モデル
AI21 Labs - AI21-Jamba-1.5-Mini
- AI21-Jamba-1.5-Large
Azure OpenAI - o1
- gpt-4o
- o1-preview
- o1-mini
- gpt-4o-mini
- text-embedding-3-large
- text-embedding-3-small
Cohere - Cohere-embed-v3-english
- Cohere-embed-v3-multilingual
- Cohere-command-r-plus-08-2024
- Cohere-command-r-08-2024
- Cohere-command-r-plus
- Cohere-command-r
Core42 - jais-30b-chat
メタ - Llama-3.3-70B-Instruct
- Llama-3.2-11B-Vision-Instruct
- Llama-3.2-90B-Vision-Instruct
- Meta-Llama-3.1-405B-Instruct
- Meta-Llama-3-8B-Instruct
- Meta-Llama-3.1-70B-Instruct
- Meta-Llama-3.1-8B-Instruct
- Meta-Llama-3-70B-Instruct
Microsoft - Phi-3-mini-128k-instruct
- Phi-3-mini-4k-instruct
- Phi-3-small-8k-instruct
- Phi-3-medium-128k-instruct
- Phi-3-medium-4k-instruct
- Phi-3.5-vision-instruct
- Phi-3.5-MoE-instruct
- Phi-3-small-128k-instruct
- Phi-3.5-mini-instruct
- Phi-4
Mistral AI - Ministral-3B
- Mistral-large
- Mistral-small
- Mistral-Nemo
- Mistral-large-2407
- Mistral-Large-2411
- Codestral-2501
NTT Data - Tsuzumi-7b

価格

Microsoft 以外のプロバイダーのモデル (Meta AI や Mistral のモデルなど) の場合、課金は Azure Marketplace を通じて行われます。 このようなモデルの場合は、「Microsoft コマーシャル マーケットプレースの使用条件」に従って、特定のモデル オファリングをサブスクライブする必要があります。 ユーザーはモデルの使用に関するライセンス条項に同意します。 使用する価格情報はデプロイ時に提供されます。

Microsoft モデル (Phi-3 モデルや Azure OpenAI モデルなど) の場合、課金はファースト パーティ従量課金サービスとして Azure メーターを介して行われます。 製品使用条件に記載されているように、ファースト パーティ従量課金サービスは Azure メーターを使用して購入しますが、Azure サービス使用条件の対象ではありません。

ヒント

Azure AI モデル推論においてコストを監視して管理する方法を確認してください。

責任ある AI

Microsoft は、人を第一に考える原則に基づいて、AI の発展に取り組んでいます。 Azure AI モデルで使用できる生成モデルには、かなりの潜在的利益がありますが、慎重な設計と熟考した軽減策がない場合、そのようなモデルによって、正しくない、または有害なコンテンツが生成される可能性があります。

Microsoft は、次のアクションを実行することで、悪用や意図しない損害から保護します。

概要

Azure AI モデル推論は、Azure AI サービスのリソースで提供される新機能です。 他の Azure 製品と同じように、Azure サブスクリプションに Azure AI モデル推論用のリソース、またはサービスのインスタンスを作成し構成して使用を開始できます。 要件が異なる複数のチームがある場合は、必要な数のリソースを作成し、個別に構成することができます。

Azure AI サービスのリソースを作成したら、API 呼び出しを開始する前に、モデルをデプロイする必要があります。 既定では、使用できるモデルがないため、どのモデルから開始するかを制御できます。 チュートリアル Azure AI モデル推論で最初のモデル デプロイを作成するに関する記事を参照してください。

次のステップ