Dela via


Modeller som är tillgängliga i Azure AI-modellinferens

Azure AI-modellinferens i Azure AI Foundry ger dig åtkomst till flaggskeppsmodeller i Azure AI för att använda dem som API:er utan att vara värd för dem i din infrastruktur.

En animering som visar avsnittet för Azure AI Studio-modellkatalogen och de tillgängliga modellerna.

Modelltillgängligheten varierar beroende på modellleverantör, distributions-SKU och moln. Alla modeller som är tillgängliga i Azure AI Model Inference stöder den globala standarddistributionstypen som använder global kapacitet för att garantera dataflödet. Azure OpenAI-modeller stöder även regionala distributioner och nationella moln – Azure Government, Azure Germany och Azure China 21Vianet.

Läs mer om specifika distributionsfunktioner för Azure OpenAI i Tillgänglighet för Azure OpenAI-modell.

Dricks

Azure AI-modellkatalogen erbjuder ett större urval av modeller, från ett större utbud av leverantörer. Dessa modeller kan dock kräva att du är värd för dem i din infrastruktur, inklusive skapandet av en AI-hubb och ett projekt. Azure AI-modelltjänsten är ett sätt att använda modellerna som API:er utan att vara värd för dem i din infrastruktur, med en betala per användning-fakturering. Läs mer om Azure AI-modellkatalogen.

Du kan se alla tillgängliga modeller i modellkatalogen för Azure AI Foundry-portalen.

AI21 Labs

Jamba-familjemodellerna är AI21:s Mamba-baserade modell för stora språk i produktionsklass (LLM) som använder AI21:s hybridarkitektur Mamba-Transformer. Det är en instruktionsjusterad version av AI21:s Hybrid Structured State Space Model (SSM) transformator Jamba-modell. Jamba-familjemodellerna är byggda för tillförlitlig kommersiell användning med avseende på kvalitet och prestanda.

Modell Typ Nivå Funktioner
AI21-Jamba-1.5-Mini chatten har slutförts Global standard - Indata: text (262 144 token)
- Utdata: (4 096 token)
- Språk:en, fr, es, pt, de, aroch he
- Verktygssamtal: Ja
- Svarsformat: Text, JSON, strukturerade utdata
AI21-Jamba-1.5-Large chatten har slutförts Global standard - Indata: text (262 144 token)
- Utdata: (4 096 token)
- Språk:en, fr, es, pt, de, aroch he
- Verktygssamtal: Ja
- Svarsformat: Text, JSON, strukturerade utdata

Se den här modellsamlingen i Azure AI Foundry-portalen.

Azure OpenAI

Azure OpenAI Service erbjuder en mängd olika modeller med olika funktioner och prispunkter. Dessa modeller omfattar:

  • Toppmoderna modeller som utformats för att hantera resonemang och problemlösningsuppgifter med ökat fokus och ökad kapacitet
  • Modeller som kan förstå och generera naturligt språk och kod
  • Modeller som kan transkribera och översätta tal till text
Modell Typ Nivå Funktioner
o3-mini chatten har slutförts Global standard - Indata: text och bild (200 000 tokens)
- Utdata: text (100 000 token)
- Språk:en, it, af, es, de, fr, id, ru, pl, uk, el, lv, zh, ar, tr, jaswcy, ko, is, bnur, thne, , pa, mroch .te
- Verktygssamtal: Ja
- Svarsformat: Text, JSON, strukturerade utdata
o1 chatten har slutförts Global standard - Indata: text och bild (200 000 tokens)
- Utdata: text (100 000 token)
- Språk:en, it, af, es, de, fr, id, ru, pl, uk, el, lv, zh, ar, tr, jaswcy, ko, is, bnur, thne, , pa, mroch .te
- Verktygssamtal: Ja
- Svarsformat: Text, JSON, strukturerade utdata
o1-preview chatten har slutförts Global standard
Standard
- Indata: text (128 000 token)
- Utdata: (32 768 token)
- Språk:en, it, af, es, de, fr, id, ru, pl, uk, el, lv, zh, ar, tr, jaswcy, ko, is, bnur, thne, , pa, mroch .te
- Verktygssamtal: Ja
- Svarsformat: Text, JSON, strukturerade utdata
o1-mini chatten har slutförts Global standard
Standard
- Indata: text (128 000 token)
- Utdata: (65 536 token)
- Språk:en, it, af, es, de, fr, id, ru, pl, uk, el, lv, zh, ar, tr, jaswcy, ko, is, bnur, thne, , pa, mroch .te
- Verktygsanrop: Nej
- Svarsformat: Text
gpt-4o-realtime-preview realtid Global standard - Indata: kontroll, text och ljud (131 072 token)
- Utdata: text och ljud (16 384 token)
- Språk: en
- Verktygssamtal: Ja
- Svarsformat: Text, JSON
gpt-4o chatten har slutförts Global standard
Standard
Batch
Etablerad
Global etablerad
Datazon
- Indata: text och bild (131 072 tokens)
- Utdata: text (16 384 tokens)
- Språk:en, it, af, es, de, fr, id, ru, pl, uk, el, lv, zh, ar, tr, jaswcy, ko, is, bnur, thne, , pa, mroch .te
- Verktygssamtal: Ja
- Svarsformat: Text, JSON, strukturerade utdata
gpt-4o-mini chatten har slutförts Global standard
Standard
Batch
Etablerad
Global etablerad
Datazon
- Indata: text, bild och ljud (131 072 tokens)
- Utdata: (16 384 tokens)
- Språk:en, it, af, es, de, fr, id, ru, pl, uk, el, lv, zh, ar, tr, jaswcy, ko, is, bnur, thne, , pa, mroch .te
- Verktygssamtal: Ja
- Svarsformat: Text, JSON, strukturerade utdata
text-embedding-3-large inbäddningar Global standard
Standard
Etablerad
Global etablerad
- Indata: text (8 191 tokens)
- Utdata: Vektor (3 072 dim.)
- Språk:en
text-embedding-3-small inbäddningar Global standard
Standard
Etablerad
Global etablerad
- Indata: text (8 191 tokens)
- Utdata: Vektor (1 536 dim.)
- Språk:en

Se den här modellsamlingen i Azure AI Foundry-portalen.

Sammanstängd

Cohere-serien med modeller innehåller olika modeller som är optimerade för olika användningsfall, inklusive chattavslut och inbäddningar. Sammanhållna modeller är optimerade för olika användningsfall som inkluderar resonemang, sammanfattning och frågesvar.

Modell Typ Nivå Funktioner
Cohere-embed-v3-english inbäddningar
image-embeddings
Global standard - Indata: text (512 tokens)
- Utdata: Vektor (1 024 dim.)
- Språk: en
Cohere-embed-v3-multilingual inbäddningar
image-embeddings
Global standard - Indata: text (512 tokens)
- Utdata: Vektor (1 024 dim.)
- Språk: en, fr, es, it, de, pt-br, ja, ko, zh-cn och ar
Cohere-command-r-plus-08-2024 chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (4 096 token)
- Språk: en, fr, es, it, de, pt-br, ja, ko, zh-cn och ar
- Verktygssamtal: Ja
- Svarsformat: Text, JSON
Cohere-command-r-08-2024 chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (4 096 token)
- Språk: en, fr, es, it, de, pt-br, ja, ko, zh-cn och ar
- Verktygssamtal: Ja
- Svarsformat: Text, JSON
Cohere-command-r-plus chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (4 096 token)
- Språk: en, fr, es, it, de, pt-br, ja, ko, zh-cn och ar
- Verktygssamtal: Ja
- Svarsformat: Text, JSON
Cohere-command-r chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (4 096 token)
- Språk: en, fr, es, it, de, pt-br, ja, ko, zh-cn och ar
- Verktygssamtal: Ja
- Svarsformat: Text, JSON

Se den här modellsamlingen i Azure AI Foundry-portalen.

Core42

Core42 innehåller autoregressiva tvåspråkiga LLM:er för arabiska och engelska med toppmoderna funktioner på arabiska.

Modell Typ Nivå Funktioner
jais-30b-chat chatten har slutförts Global standard - Indata: text (8 192 token)
- Utdata: (4 096 token)
- Språk: en och ar
- Verktygssamtal: Ja
- Svarsformat: Text, JSON

Se den här modellsamlingen i Azure AI Foundry-portalen.

DeepSeek

DeepSeek-serien med modeller inkluderar DeepSeek-R1, som utmärker sig för att resonera med hjälp av en stegvis utbildningsprocess, till exempel språk, vetenskapliga resonemang och kodningsuppgifter.

Modell Typ Nivå Funktioner
DeekSeek-R1 chatten har slutförts
(med resonemangsinnehåll)
Global standard - Indata: text (16 384 token)
- Utdata: (163 840 tokens)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text.

Se den här modellsamlingen i Azure AI Foundry-portalen.

Meta

Meta Llama-modeller och -verktyg är en samling förtränad och finjusterad generativ AI-text- och bildorsaksmodeller. Metamodellers intervall skalas så att det omfattar:

  • Små språkmodeller (SSM) som 1B- och 3B-bas- och instruktionsmodeller för inferens på enheten och gränsen
  • Medelstora stora språkmodeller (LLM: er) som 7B-, 8B- och 70B-bas- och instruktionsmodeller
  • Högpresterande modeller som Meta Llama 3.1-405B Instruera för användningsfall för syntetisk datagenerering och destillation.
Modell Typ Nivå Funktioner
Llama-3.3-70B-Instruct chatten har slutförts Global standard - Indata: text (128 000 token)
- Utdata: text (8 192 tokens)
- Språk: en, de, fr, it, pt, hi, es och th
- Verktygsanrop: Nej*
- Svarsformat: Text
Llama-3.2-11B-Vision-Instruct chatten har slutförts Global standard - Indata: text och bild (128 000 tokens)
- Utdata: (8 192 tokens)
- Språk: en
- Verktygsanrop: Nej*
- Svarsformat: Text
Llama-3.2-90B-Vision-Instruct chatten har slutförts Global standard - Indata: text och bild (128 000 tokens)
- Utdata: (8 192 tokens)
- Språk: en
- Verktygsanrop: Nej*
- Svarsformat: Text
Meta-Llama-3.1-405B-Instruct chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (8 192 tokens)
- Språk: en, de, fr, it, pt, hi, es och th
- Verktygsanrop: Nej*
- Svarsformat: Text
Meta-Llama-3-8B-Instruct chatten har slutförts Global standard - Indata: text (8 192 token)
- Utdata: (8 192 tokens)
- Språk: en
- Verktygsanrop: Nej*
- Svarsformat: Text
Meta-Llama-3.1-70B-Instruct chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (8 192 tokens)
- Språk: en, de, fr, it, pt, hi, es och th
- Verktygsanrop: Nej*
- Svarsformat: Text
Meta-Llama-3.1-8B-Instruct chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (8 192 tokens)
- Språk: en, de, fr, it, pt, hi, es och th
- Verktygsanrop: Nej*
- Svarsformat: Text
Meta-Llama-3-70B-Instruct chatten har slutförts Global standard - Indata: text (8 192 token)
- Utdata: (8 192 tokens)
- Språk: en
- Verktygsanrop: Nej*
- Svarsformat: Text

Se den här modellsamlingen i Azure AI Foundry-portalen.

Microsoft

Phi är en familj av lätta, toppmoderna öppna modeller. Dessa modeller tränades med Phi-3-datauppsättningar. Datauppsättningarna innehåller både syntetiska data och filtrerade, offentligt tillgängliga webbplatsdata, med fokus på högkvalitativa och resonemangstäta egenskaper. Modellerna genomgick en rigorös förbättringsprocess med både övervakad finjustering, proximal principoptimering och direktpreferensoptimering för att säkerställa exakt instruktionsefterlevnad och robusta säkerhetsåtgärder.

Modell Typ Nivå Funktioner
Phi-3-mini-128k-instruct chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (4 096 token)
- Språk: en
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3-mini-4k-instruct chatten har slutförts Global standard - Indata: text (4 096 token)
- Utdata: (4 096 token)
- Språk: en
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3-small-8k-instruct chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (4 096 token)
- Språk: en
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3-medium-128k-instruct chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (4 096 token)
- Språk: en
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3-medium-4k-instruct chatten har slutförts Global standard - Indata: text (4 096 token)
- Utdata: (4 096 token)
- Språk: en
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3.5-vision-instruct chatten har slutförts Global standard - Indata: text och bild (131 072 tokens)
- Utdata: (4 096 token)
- Språk: en
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3.5-MoE-instruct chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: text (4 096 token)
- Språk: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, and uk
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3-small-128k-instruct chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (4 096 token)
- Språk: en
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3.5-mini-instruct chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (4 096 token)
- Språk: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, and uk
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-4 chatten har slutförts Global standard - Indata: text (16 384 token)
- Utdata: (16 384 tokens)
- Språk: en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, your, vi, yo, and zh - Tool calling: No
- Svarsformat: Text

Se den här modellsamlingen i Azure AI Foundry-portalen.

Mistral AI

Mistral AI erbjuder två kategorier av modeller: premiummodeller som Mistral Large och Mistral Small och öppna modeller, inklusive Mistral Nemo.

Modell Typ Nivå Funktioner
Ministral-3B chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: text (4 096 token)
- Språk: fr, de, es, it och en
- Verktygssamtal: Ja
- Svarsformat: Text, JSON
Mistral-large
(inaktuell)
chatten har slutförts Global standard - Indata: text (32 768 tokens)
- Utdata: (4 096 token)
- Språk: fr, de, es, it och en
- Verktygssamtal: Ja
- Svarsformat: Text, JSON
Mistral-small chatten har slutförts Global standard - Indata: text (32 768 tokens)
- Utdata: text (4 096 token)
- Språk: fr, de, es, it och en
- Verktygssamtal: Ja
- Svarsformat: Text, JSON
Mistral-Nemo chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: text (4 096 token)
- Språk: en, fr, de, es, det, zh, ja, ko, pt, nl och pl
- Verktygssamtal: Ja
- Svarsformat: Text, JSON
Mistral-large-2407
(äldre)
chatten har slutförts Global standard - Indata: text (131 072 token)
- Utdata: (4 096 token)
- Språk: en, fr, de, es, det, zh, ja, ko, pt, nl och pl
- Verktygssamtal: Ja
- Svarsformat: Text, JSON
Mistral-Large-2411 chatten har slutförts Global standard - Indata: text (128 000 token)
- Utdata: text (4 096 token)
- Språk: en, fr, de, es, det, zh, ja, ko, pt, nl och pl
- Verktygssamtal: Ja
- Svarsformat: Text, JSON
Codestral-2501 chatten har slutförts Global standard - Indata: text (262 144 token)
- Utdata: text (4 096 token)
- Språk: en
- Verktygsanrop: Nej
- Svarsformat: Text

Se den här modellsamlingen i Azure AI Foundry-portalen.

NTT-data

Tsuzumi är en autoregressiv språkoptimerad transformerare. De finjusterade versionerna använder övervakad finjustering (SFT). Tsuzumi hanterar både japanska och engelska med hög effektivitet.

Modell Typ Nivå Funktioner
Tsuzumi-7b chatten har slutförts Global standard - Indata: text (8 192 token)
- Utdata: text (8 192 tokens)
- Språk: en och jp
- Verktygsanrop: Nej
- Svarsformat: Text

Nästa steg