Modeller som är tillgängliga i Azure AI-modellinferens
Azure AI-modellinferens i Azure AI Foundry ger dig åtkomst till flaggskeppsmodeller i Azure AI för att använda dem som API:er utan att vara värd för dem i din infrastruktur.
Modelltillgängligheten varierar beroende på modellleverantör, distributions-SKU och moln. Alla modeller som är tillgängliga i Azure AI Model Inference stöder den globala standarddistributionstypen som använder global kapacitet för att garantera dataflödet. Azure OpenAI-modeller stöder även regionala distributioner och nationella moln – Azure Government, Azure Germany och Azure China 21Vianet.
Läs mer om specifika distributionsfunktioner för Azure OpenAI i Tillgänglighet för Azure OpenAI-modell.
Dricks
Azure AI-modellkatalogen erbjuder ett större urval av modeller, från ett större utbud av leverantörer. Dessa modeller kan dock kräva att du är värd för dem i din infrastruktur, inklusive skapandet av en AI-hubb och ett projekt. Azure AI-modelltjänsten är ett sätt att använda modellerna som API:er utan att vara värd för dem i din infrastruktur, med en betala per användning-fakturering. Läs mer om Azure AI-modellkatalogen.
Du kan se alla tillgängliga modeller i modellkatalogen för Azure AI Foundry-portalen.
AI21 Labs
Jamba-familjemodellerna är AI21:s Mamba-baserade modell för stora språk i produktionsklass (LLM) som använder AI21:s hybridarkitektur Mamba-Transformer. Det är en instruktionsjusterad version av AI21:s Hybrid Structured State Space Model (SSM) transformator Jamba-modell. Jamba-familjemodellerna är byggda för tillförlitlig kommersiell användning med avseende på kvalitet och prestanda.
Modell | Typ | Nivå | Funktioner |
---|---|---|---|
AI21-Jamba-1.5-Mini | chatten har slutförts | Global standard |
-
Indata: text (262 144 token) - Utdata: (4 096 token) - Språk: en , fr , es , pt , de , ar och he - Verktygssamtal: Ja - Svarsformat: Text, JSON, strukturerade utdata |
AI21-Jamba-1.5-Large | chatten har slutförts | Global standard |
-
Indata: text (262 144 token) - Utdata: (4 096 token) - Språk: en , fr , es , pt , de , ar och he - Verktygssamtal: Ja - Svarsformat: Text, JSON, strukturerade utdata |
Se den här modellsamlingen i Azure AI Foundry-portalen.
Azure OpenAI
Azure OpenAI Service erbjuder en mängd olika modeller med olika funktioner och prispunkter. Dessa modeller omfattar:
- Toppmoderna modeller som utformats för att hantera resonemang och problemlösningsuppgifter med ökat fokus och ökad kapacitet
- Modeller som kan förstå och generera naturligt språk och kod
- Modeller som kan transkribera och översätta tal till text
Modell | Typ | Nivå | Funktioner |
---|---|---|---|
o3-mini | chatten har slutförts | Global standard |
-
Indata: text och bild (200 000 tokens) - Utdata: text (100 000 token) - Språk: en , it , af , es , de , fr , id , ru , pl , uk , el , lv , zh , ar , tr , ja sw cy , ko , is , bn ur , th ne , , pa , mr och .te - Verktygssamtal: Ja - Svarsformat: Text, JSON, strukturerade utdata |
o1 | chatten har slutförts | Global standard |
-
Indata: text och bild (200 000 tokens) - Utdata: text (100 000 token) - Språk: en , it , af , es , de , fr , id , ru , pl , uk , el , lv , zh , ar , tr , ja sw cy , ko , is , bn ur , th ne , , pa , mr och .te - Verktygssamtal: Ja - Svarsformat: Text, JSON, strukturerade utdata |
o1-preview | chatten har slutförts | Global standard Standard |
-
Indata: text (128 000 token) - Utdata: (32 768 token) - Språk: en , it , af , es , de , fr , id , ru , pl , uk , el , lv , zh , ar , tr , ja sw cy , ko , is , bn ur , th ne , , pa , mr och .te - Verktygssamtal: Ja - Svarsformat: Text, JSON, strukturerade utdata |
o1-mini | chatten har slutförts | Global standard Standard |
-
Indata: text (128 000 token) - Utdata: (65 536 token) - Språk: en , it , af , es , de , fr , id , ru , pl , uk , el , lv , zh , ar , tr , ja sw cy , ko , is , bn ur , th ne , , pa , mr och .te - Verktygsanrop: Nej - Svarsformat: Text |
gpt-4o-realtime-preview | realtid | Global standard |
-
Indata: kontroll, text och ljud (131 072 token) - Utdata: text och ljud (16 384 token) - Språk: en - Verktygssamtal: Ja - Svarsformat: Text, JSON |
gpt-4o | chatten har slutförts | Global standard Standard Batch Etablerad Global etablerad Datazon |
-
Indata: text och bild (131 072 tokens) - Utdata: text (16 384 tokens) - Språk: en , it , af , es , de , fr , id , ru , pl , uk , el , lv , zh , ar , tr , ja sw cy , ko , is , bn ur , th ne , , pa , mr och .te - Verktygssamtal: Ja - Svarsformat: Text, JSON, strukturerade utdata |
gpt-4o-mini | chatten har slutförts | Global standard Standard Batch Etablerad Global etablerad Datazon |
-
Indata: text, bild och ljud (131 072 tokens) - Utdata: (16 384 tokens) - Språk: en , it , af , es , de , fr , id , ru , pl , uk , el , lv , zh , ar , tr , ja sw cy , ko , is , bn ur , th ne , , pa , mr och .te - Verktygssamtal: Ja - Svarsformat: Text, JSON, strukturerade utdata |
text-embedding-3-large | inbäddningar | Global standard Standard Etablerad Global etablerad |
-
Indata: text (8 191 tokens) - Utdata: Vektor (3 072 dim.) - Språk: en |
text-embedding-3-small | inbäddningar | Global standard Standard Etablerad Global etablerad |
-
Indata: text (8 191 tokens) - Utdata: Vektor (1 536 dim.) - Språk: en |
Se den här modellsamlingen i Azure AI Foundry-portalen.
Sammanstängd
Cohere-serien med modeller innehåller olika modeller som är optimerade för olika användningsfall, inklusive chattavslut och inbäddningar. Sammanhållna modeller är optimerade för olika användningsfall som inkluderar resonemang, sammanfattning och frågesvar.
Modell | Typ | Nivå | Funktioner |
---|---|---|---|
Cohere-embed-v3-english | inbäddningar image-embeddings |
Global standard |
-
Indata: text (512 tokens) - Utdata: Vektor (1 024 dim.) - Språk: en |
Cohere-embed-v3-multilingual | inbäddningar image-embeddings |
Global standard |
-
Indata: text (512 tokens) - Utdata: Vektor (1 024 dim.) - Språk: en, fr, es, it, de, pt-br, ja, ko, zh-cn och ar |
Cohere-command-r-plus-08-2024 | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (4 096 token) - Språk: en, fr, es, it, de, pt-br, ja, ko, zh-cn och ar - Verktygssamtal: Ja - Svarsformat: Text, JSON |
Cohere-command-r-08-2024 | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (4 096 token) - Språk: en, fr, es, it, de, pt-br, ja, ko, zh-cn och ar - Verktygssamtal: Ja - Svarsformat: Text, JSON |
Cohere-command-r-plus | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (4 096 token) - Språk: en, fr, es, it, de, pt-br, ja, ko, zh-cn och ar - Verktygssamtal: Ja - Svarsformat: Text, JSON |
Cohere-command-r | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (4 096 token) - Språk: en, fr, es, it, de, pt-br, ja, ko, zh-cn och ar - Verktygssamtal: Ja - Svarsformat: Text, JSON |
Se den här modellsamlingen i Azure AI Foundry-portalen.
Core42
Core42 innehåller autoregressiva tvåspråkiga LLM:er för arabiska och engelska med toppmoderna funktioner på arabiska.
Modell | Typ | Nivå | Funktioner |
---|---|---|---|
jais-30b-chat | chatten har slutförts | Global standard |
-
Indata: text (8 192 token) - Utdata: (4 096 token) - Språk: en och ar - Verktygssamtal: Ja - Svarsformat: Text, JSON |
Se den här modellsamlingen i Azure AI Foundry-portalen.
DeepSeek
DeepSeek-serien med modeller inkluderar DeepSeek-R1, som utmärker sig för att resonera med hjälp av en stegvis utbildningsprocess, till exempel språk, vetenskapliga resonemang och kodningsuppgifter.
Modell | Typ | Nivå | Funktioner |
---|---|---|---|
DeekSeek-R1 | chatten har slutförts (med resonemangsinnehåll) |
Global standard |
-
Indata: text (16 384 token) - Utdata: (163 840 tokens) - Språk: en och zh - Verktygsanrop: Nej - Svarsformat: Text. |
Se den här modellsamlingen i Azure AI Foundry-portalen.
Meta
Meta Llama-modeller och -verktyg är en samling förtränad och finjusterad generativ AI-text- och bildorsaksmodeller. Metamodellers intervall skalas så att det omfattar:
- Små språkmodeller (SSM) som 1B- och 3B-bas- och instruktionsmodeller för inferens på enheten och gränsen
- Medelstora stora språkmodeller (LLM: er) som 7B-, 8B- och 70B-bas- och instruktionsmodeller
- Högpresterande modeller som Meta Llama 3.1-405B Instruera för användningsfall för syntetisk datagenerering och destillation.
Modell | Typ | Nivå | Funktioner |
---|---|---|---|
Llama-3.3-70B-Instruct | chatten har slutförts | Global standard |
-
Indata: text (128 000 token) - Utdata: text (8 192 tokens) - Språk: en, de, fr, it, pt, hi, es och th - Verktygsanrop: Nej* - Svarsformat: Text |
Llama-3.2-11B-Vision-Instruct | chatten har slutförts | Global standard |
-
Indata: text och bild (128 000 tokens) - Utdata: (8 192 tokens) - Språk: en - Verktygsanrop: Nej* - Svarsformat: Text |
Llama-3.2-90B-Vision-Instruct | chatten har slutförts | Global standard |
-
Indata: text och bild (128 000 tokens) - Utdata: (8 192 tokens) - Språk: en - Verktygsanrop: Nej* - Svarsformat: Text |
Meta-Llama-3.1-405B-Instruct | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (8 192 tokens) - Språk: en, de, fr, it, pt, hi, es och th - Verktygsanrop: Nej* - Svarsformat: Text |
Meta-Llama-3-8B-Instruct | chatten har slutförts | Global standard |
-
Indata: text (8 192 token) - Utdata: (8 192 tokens) - Språk: en - Verktygsanrop: Nej* - Svarsformat: Text |
Meta-Llama-3.1-70B-Instruct | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (8 192 tokens) - Språk: en, de, fr, it, pt, hi, es och th - Verktygsanrop: Nej* - Svarsformat: Text |
Meta-Llama-3.1-8B-Instruct | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (8 192 tokens) - Språk: en, de, fr, it, pt, hi, es och th - Verktygsanrop: Nej* - Svarsformat: Text |
Meta-Llama-3-70B-Instruct | chatten har slutförts | Global standard |
-
Indata: text (8 192 token) - Utdata: (8 192 tokens) - Språk: en - Verktygsanrop: Nej* - Svarsformat: Text |
Se den här modellsamlingen i Azure AI Foundry-portalen.
Microsoft
Phi är en familj av lätta, toppmoderna öppna modeller. Dessa modeller tränades med Phi-3-datauppsättningar. Datauppsättningarna innehåller både syntetiska data och filtrerade, offentligt tillgängliga webbplatsdata, med fokus på högkvalitativa och resonemangstäta egenskaper. Modellerna genomgick en rigorös förbättringsprocess med både övervakad finjustering, proximal principoptimering och direktpreferensoptimering för att säkerställa exakt instruktionsefterlevnad och robusta säkerhetsåtgärder.
Modell | Typ | Nivå | Funktioner |
---|---|---|---|
Phi-3-mini-128k-instruct | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (4 096 token) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3-mini-4k-instruct | chatten har slutförts | Global standard |
-
Indata: text (4 096 token) - Utdata: (4 096 token) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3-small-8k-instruct | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (4 096 token) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3-medium-128k-instruct | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (4 096 token) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3-medium-4k-instruct | chatten har slutförts | Global standard |
-
Indata: text (4 096 token) - Utdata: (4 096 token) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3.5-vision-instruct | chatten har slutförts | Global standard |
-
Indata: text och bild (131 072 tokens) - Utdata: (4 096 token) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3.5-MoE-instruct | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: text (4 096 token) - Språk: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, and uk - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3-small-128k-instruct | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (4 096 token) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3.5-mini-instruct | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (4 096 token) - Språk: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, and uk - Verktygsanrop: Nej - Svarsformat: Text |
Phi-4 | chatten har slutförts | Global standard |
-
Indata: text (16 384 token) - Utdata: (16 384 tokens) - Språk: en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, your, vi, yo, and zh - Tool calling: No - Svarsformat: Text |
Se den här modellsamlingen i Azure AI Foundry-portalen.
Mistral AI
Mistral AI erbjuder två kategorier av modeller: premiummodeller som Mistral Large och Mistral Small och öppna modeller, inklusive Mistral Nemo.
Modell | Typ | Nivå | Funktioner |
---|---|---|---|
Ministral-3B | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: text (4 096 token) - Språk: fr, de, es, it och en - Verktygssamtal: Ja - Svarsformat: Text, JSON |
Mistral-large (inaktuell) |
chatten har slutförts | Global standard |
-
Indata: text (32 768 tokens) - Utdata: (4 096 token) - Språk: fr, de, es, it och en - Verktygssamtal: Ja - Svarsformat: Text, JSON |
Mistral-small | chatten har slutförts | Global standard |
-
Indata: text (32 768 tokens) - Utdata: text (4 096 token) - Språk: fr, de, es, it och en - Verktygssamtal: Ja - Svarsformat: Text, JSON |
Mistral-Nemo | chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: text (4 096 token) - Språk: en, fr, de, es, det, zh, ja, ko, pt, nl och pl - Verktygssamtal: Ja - Svarsformat: Text, JSON |
Mistral-large-2407 (äldre) |
chatten har slutförts | Global standard |
-
Indata: text (131 072 token) - Utdata: (4 096 token) - Språk: en, fr, de, es, det, zh, ja, ko, pt, nl och pl - Verktygssamtal: Ja - Svarsformat: Text, JSON |
Mistral-Large-2411 | chatten har slutförts | Global standard |
-
Indata: text (128 000 token) - Utdata: text (4 096 token) - Språk: en, fr, de, es, det, zh, ja, ko, pt, nl och pl - Verktygssamtal: Ja - Svarsformat: Text, JSON |
Codestral-2501 | chatten har slutförts | Global standard |
-
Indata: text (262 144 token) - Utdata: text (4 096 token) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Se den här modellsamlingen i Azure AI Foundry-portalen.
NTT-data
Tsuzumi är en autoregressiv språkoptimerad transformerare. De finjusterade versionerna använder övervakad finjustering (SFT). Tsuzumi hanterar både japanska och engelska med hög effektivitet.
Modell | Typ | Nivå | Funktioner |
---|---|---|---|
Tsuzumi-7b | chatten har slutförts | Global standard |
-
Indata: text (8 192 token) - Utdata: text (8 192 tokens) - Språk: en och jp - Verktygsanrop: Nej - Svarsformat: Text |
Nästa steg
- Kom igång idag och distribuera din knytnävemodell i Azure AI-tjänster