Azure AI モデル推論で使用できるモデル
Azure AI Foundry の Azure AI モデル推論を使用すると、Azure AI のフラグシップ モデルにアクセスして、それらをインフラストラクチャにホストせずに API として使用できます。
モデルの可用性は、モデル プロバイダー、デプロイ SKU、クラウドによって異なります。 Azure AI モデル推論で使用できるすべてのモデルでは、グローバル容量を使用してスループットを保証するグローバル標準デプロイ タイプがサポートされます。 Azure OpenAI モデル では、リージョンでのデプロイとソブリン クラウド(Azure Government、Azure Germany、Azure China 21Vianet) もサポートされます。
Azure OpenAI の特定のデプロイ機能の詳細については、Azure OpenAI モデルの可用性を参照してください。
ヒント
Azure AI モデル カタログでは、より広範なプロバイダーから、より多くのモデルを選択できます。 ただし、これらのモデルでは、AI ハブとプロジェクトの作成など、インフラストラクチャでのホストが必要な場合があります。 Azure AI モデル サービスには、モデルをインフラストラクチャ上でホストせずに API として従量課金制で使用する方法が用意されています。 Azure AI モデル カタログの詳細を参照してください。
使用可能なすべてのモデルは、Azure AI Foundry ポータルのモデル カタログで確認できます。
AI21 Labs
Jamba ファミリ モデルは、AI21 のハイブリッド Mamba-Transformer アーキテクチャを使用した AI21 の運用環境グレードの Mamba ベース大規模言語モデル (LLM) です。 これは、AI21 のハイブリッド構造状態空間モデル (SSM) トランスフォーマー Jamba モデルのインストラクションチューニングされたバージョンです。 Jamba ファミリ モデルは、品質とパフォーマンスに関して商業利用できる信頼性を持つように構築されています。
モデル | Type | レベル | 機能 |
---|---|---|---|
AI21-Jamba-1.5-Mini | chat-completion | グローバル標準 |
-
入力: テキスト (262,144 トークン) - 出力: (4,096 トークン) - 言語: en 、fr 、es 、pt 、de 、ar 、he - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
AI21-Jamba-1.5-Large | chat-completion | グローバル標準 |
-
入力: テキスト (262,144 トークン) - 出力: (4,096 トークン) - 言語: en 、fr 、es 、pt 、de 、ar 、he - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
Azure OpenAI
Azure OpenAI Service は、さまざまな機能と価格ポイントを備えた多様なモデル セットを提供しています。 モデルには以下のものがあります。
- 推論と問題解決のタスクに、集中力と能力を高めて取り組むように設計された最先端のモデル
- 自然言語とコードを理解して生成できるモデル
- 音声テキスト変換の文字起こしと翻訳が可能なモデル
モデル | Type | レベル | 機能 |
---|---|---|---|
o3-mini | chat-completion | グローバル標準 |
-
入力: テキストと画像 (200,000 トークン) - 出力: テキスト (100,000 トークン) - 言語: en 、it 、af 、es 、de 、fr 、id 、ru 、pl 、uk 、el 、lv 、zh 、ar 、tr 、ja 、sw 、cy 、ko 、is 、bn 、ur 、ne 、th 、pa 、mr 、te 。 - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
o1 | chat-completion | グローバル標準 |
-
入力: テキストと画像 (200,000 トークン) - 出力: テキスト (100,000 トークン) - 言語: en 、it 、af 、es 、de 、fr 、id 、ru 、pl 、uk 、el 、lv 、zh 、ar 、tr 、ja 、sw 、cy 、ko 、is 、bn 、ur 、ne 、th 、pa 、mr 、te 。 - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
o1-preview | chat-completion | グローバル標準 Standard |
-
入力: テキスト (128,000 トークン) - 出力: (32,768 トークン) - 言語: en 、it 、af 、es 、de 、fr 、id 、ru 、pl 、uk 、el 、lv 、zh 、ar 、tr 、ja 、sw 、cy 、ko 、is 、bn 、ur 、ne 、th 、pa 、mr 、te 。 - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
o1-mini | chat-completion | グローバル標準 Standard |
-
入力: テキスト (128,000 トークン) - 出力: (65,536 トークン) - 言語: en 、it 、af 、es 、de 、fr 、id 、ru 、pl 、uk 、el 、lv 、zh 、ar 、tr 、ja 、sw 、cy 、ko 、is 、bn 、ur 、ne 、th 、pa 、mr 、te 。 - ツールの呼び出し: 不可 - 応答形式: テキスト |
gpt-4o-realtime-preview | real-time | グローバル標準 |
-
入力: コントロール、テキスト、オーディオ (131,072 トークン) - 出力: テキストとオーディオ (16,384 トークン) - 言語: en - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
gpt-4o | chat-completion | グローバル標準 Standard Batch プロビジョニング済み グローバル プロビジョニング済み データ ゾーン |
-
入力: テキストと画像 (131,072 トークン) - 出力: テキスト (16,384 トークン) - 言語: en 、it 、af 、es 、de 、fr 、id 、ru 、pl 、uk 、el 、lv 、zh 、ar 、tr 、ja 、sw 、cy 、ko 、is 、bn 、ur 、ne 、th 、pa 、mr 、te 。 - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
gpt-4o-mini | chat-completion | グローバル標準 Standard Batch プロビジョニング済み グローバル プロビジョニング済み データ ゾーン |
-
入力: テキスト、画像、オーディオ (131,072 トークン) - 出力: (16,384 トークン) - 言語: en 、it 、af 、es 、de 、fr 、id 、ru 、pl 、uk 、el 、lv 、zh 、ar 、tr 、ja 、sw 、cy 、ko 、is 、bn 、ur 、ne 、th 、pa 、mr 、te 。 - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
text-embedding-3-large | embeddings | グローバル標準 Standard プロビジョニング済み グローバル プロビジョニング済み |
-
入力: テキスト (8,191 トークン) - 出力: ベクトル (3,072 次元) - 言語: en |
text-embedding-3-small | embeddings | グローバル標準 Standard プロビジョニング済み グローバル プロビジョニング済み |
-
入力: テキスト (8,191 トークン) - 出力: ベクター (1,536 次元) - 言語: en |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
Cohere
Cohere のモデル ファミリには、チャット入力候補、埋め込みなど、さまざまなユース ケースに最適化されたモデルがあります。 Cohere のモデルは、推論、要約、質問応答など、さまざまなユース ケースに最適化されています。
モデル | Type | レベル | 機能 |
---|---|---|---|
Cohere-embed-v3-english | embeddings image_embeddings |
グローバル標準 |
-
入力: テキスト (512 トークン) - 出力: ベクター (1,024 次元) - 言語: en |
Cohere-embed-v3-multilingual | embeddings image_embeddings |
グローバル標準 |
-
入力: テキスト (512 トークン) - 出力: ベクター (1,024 次元) - 言語: en、fr、es、it、de、pt-br、ja、ko、zh-cn、ar |
Cohere-command-r-plus-08-2024 | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (4,096 トークン) - 言語: en、fr、es、it、de、pt-br、ja、ko、zh-cn、ar - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Cohere-command-r-08-2024 | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (4,096 トークン) - 言語: en、fr、es、it、de、pt-br、ja、ko、zh-cn、ar - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Cohere-command-r-plus | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (4,096 トークン) - 言語: en、fr、es、it、de、pt-br、ja、ko、zh-cn、ar - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Cohere-command-r | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (4,096 トークン) - 言語: en、fr、es、it、de、pt-br、ja、ko、zh-cn、ar - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
Core42
Core42 には、アラビア語の最新機能を備えたアラビア語と英語用の自動回帰のバイリンガル LLM が含まれています。
モデル | Type | レベル | 機能 |
---|---|---|---|
jais-30b-chat | chat-completion | グローバル標準 |
-
入力: テキスト (8,192 トークン) - 出力: (4,096 トークン) - 言語: en、ar - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
DeepSeek
DeepSeek ファミリのモデルには DeepSeek-R1 が含まれています。これは、言語、科学的推論、コーディング タスクなど、段階的なトレーニング プロセスを使用した推論タスクに優れています。
モデル | Type | レベル | 機能 |
---|---|---|---|
DeekSeek-R1 | chat-completion (コンテンツの推論あり) |
グローバル標準 |
-
入力: テキスト (16,384 トークン) - 出力: (163,840 トークン) - 言語: en と zh - ツールの呼び出し: 不可 - 応答形式: テキスト。 |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
Meta
Meta Llama のモデルとツールは、事前トレーニングおよび微調整された生成 AI テキストと画像推論モデルのコレクションです。 メタ モデルの範囲は、次を含むようにスケーリングされています。
- 1B や 3B Base およびデバイス上およびエッジ推論用の Instruct モデルなどの小規模言語モデル (SLM)
- 7B、8B、70B の Base および Instruct モデルなどの中規模の大規模言語モデル (LLM)
- 合成データ生成および蒸留ユース ケース向けの Meta Llama 3.1-405B Instruct などの高性能モデル。
モデル | Type | レベル | 機能 |
---|---|---|---|
Llama-3.3-70B-Instruct | chat-completion | グローバル標準 |
-
入力: テキスト (128,000 トークン) - 出力: テキスト (8,192 トークン) - 言語: en、de、fr、it、pt、hi、es、th - ツールの呼び出し: 不可* - 応答形式: テキスト |
Llama-3.2-11B-Vision-Instruct | chat-completion | グローバル標準 |
-
入力: テキストと画像 (128,000 トークン) - 出力: (8,192 トークン) - 言語: en - ツールの呼び出し: 不可* - 応答形式: テキスト |
Llama-3.2-90B-Vision-Instruct | chat-completion | グローバル標準 |
-
入力: テキストと画像 (128,000 トークン) - 出力: (8,192 トークン) - 言語: en - ツールの呼び出し: 不可* - 応答形式: テキスト |
Meta-Llama-3.1-405B-Instruct | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (8,192 トークン) - 言語: en、de、fr、it、pt、hi、es、th - ツールの呼び出し: 不可* - 応答形式: テキスト |
Meta-Llama-3-8B-Instruct | chat-completion | グローバル標準 |
-
入力: テキスト (8,192 トークン) - 出力: (8,192 トークン) - 言語: en - ツールの呼び出し: 不可* - 応答形式: テキスト |
Meta-Llama-3.1-70B-Instruct | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (8,192 トークン) - 言語: en、de、fr、it、pt、hi、es、th - ツールの呼び出し: 不可* - 応答形式: テキスト |
Meta-Llama-3.1-8B-Instruct | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (8,192 トークン) - 言語: en、de、fr、it、pt、hi、es、th - ツールの呼び出し: 不可* - 応答形式: テキスト |
Meta-Llama-3-70B-Instruct | chat-completion | グローバル標準 |
-
入力: テキスト (8,192 トークン) - 出力: (8,192 トークン) - 言語: en - ツールの呼び出し: 不可* - 応答形式: テキスト |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
Microsoft
Phi は軽量で最先端のオープン モデルのファミリです。 これらのモデルは Phi-3 データセットでトレーニングされました。 このデータセットには、合成データと、フィルター処理された一般公開されている Web サイト データの両方が含まれており、高品質で推論密度の高いプロパティに重点を置いています。 このモデルは厳格な改良プロセスを経て、教師あり微調整、近接ポリシー最適化、直接嗜好最適化が組み込まれているため、正確な指示の遵守と堅牢な安全対策が保証されています。
モデル | Type | レベル | 機能 |
---|---|---|---|
Phi-3-mini-128k-instruct | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (4,096 トークン) - 言語: en - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3-mini-4k-instruct | chat-completion | グローバル標準 |
-
入力: テキスト (4,096 トークン) - 出力: (4,096 トークン) - 言語: en - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3-small-8k-instruct | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (4,096 トークン) - 言語: en - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3-medium-128k-Instruct | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (4,096 トークン) - 言語: en - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3-medium-4k-instruct | chat-completion | グローバル標準 |
-
入力: テキスト (4,096 トークン) - 出力: (4,096 トークン) - 言語: en - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3.5-vision-instruct | chat-completion | グローバル標準 |
-
入力: テキストと画像 (131,072 トークン) - 出力: (4,096 トークン) - 言語: en - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3.5-MoE-instruct | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - 言語: en、ar、zh、cs、da、nl、fi、fr、de、he、hu、it、ja、ko、no、pl、pt、ru、es、sv、th、tr、uk - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3-small-128k-instruct | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (4,096 トークン) - 言語: en - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3.5-mini-instruct | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (4,096 トークン) - 言語: en、ar、zh、cs、da、nl、fi、fr、de、he、hu、it、ja、ko、no、pl、pt、ru、es、sv、th、tr、uk - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-4 | chat-completion | グローバル標準 |
-
入力: テキスト (16,384 トークン) - 出力: (16,384 トークン) - 言語: en、ar、bn、cs、da、de、el、es、fa、fi、fr、gu、ha、he、hi、hu、id、it、ja、jv、kn、ko、ml、mr、nl、no、or、pa、pl、ps、pt、ro、ru、sv、sw、ta、te、th、tl、tr、uk、ur、vi、yo、zh - ツールの呼び出し: 不可 - 応答形式: テキスト |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
Mistral AI
Mistral AI には、Mistral Large と Mistral Small を含むプレミアム モデルと、Mistral Nemo を含むオープン モデルの 2 つのカテゴリが用意されています。
モデル | Type | レベル | 機能 |
---|---|---|---|
Ministral-3B | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - 言語: fr、de、es、it、en - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Mistral-large (非推奨) |
chat-completion | グローバル標準 |
-
入力: テキスト (32,768 トークン) - 出力: (4,096 トークン) - 言語: fr、de、es、it、en - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Mistral-small | chat-completion | グローバル標準 |
-
入力: テキスト (32,768 トークン) - 出力: テキスト (4,096 トークン) - 言語: fr、de、es、it、en - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Mistral Nemo | chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - 言語: en、fr、de、es、it、zh、ja、ko、pt、nl、pl - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Mistral-large-2407 (レガシ) |
chat-completion | グローバル標準 |
-
入力: テキスト (131,072 トークン) - 出力: (4,096 トークン) - 言語: en、fr、de、es、it、zh、ja、ko、pt、nl、pl - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Mistral-Large-2411 | chat-completion | グローバル標準 |
-
入力: テキスト (128,000 トークン) - 出力: テキスト (4,096 トークン) - 言語: en、fr、de、es、it、zh、ja、ko、pt、nl、pl - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Codestral-2501 | chat-completion | グローバル標準 |
-
入力: テキスト (262,144 トークン) - 出力: テキスト (4,096 トークン) - 言語: en - ツールの呼び出し: 不可 - 応答形式: テキスト |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
NTT Data
Tsuzumi は自動回帰言語最適化トランスフォーマーです。 調整バージョンは、教師あり微調整 (SFT) を使用します。 Tsuzumi は、日本語と英語の両方を高い効率性で処理します。
モデル | Type | レベル | 機能 |
---|---|---|---|
Tsuzumi-7b | chat-completion | グローバル標準 |
-
入力: テキスト (8,192 トークン) - 出力: テキスト (8,192 トークン) - 言語: en、jp - ツールの呼び出し: 不可 - 応答形式: テキスト |
次のステップ
- 今すぐ開始して、Azure AI サービスに最初のモデルをデプロイする