Vad är Azure AI-modellinferens?
Azure AI-modellinferens ger åtkomst till de mest kraftfulla modellerna som finns i Azure AI-modellkatalogen. Modellerna kommer från viktiga modellleverantörer i branschen, inklusive OpenAI, Microsoft, Meta, Mistral, Cohere, G42 och AI21 Labs. Dessa modeller kan integreras med programvarulösningar för att leverera ett brett utbud av uppgifter som omfattar innehållsgenerering, sammanfattning, bildtolkning, semantisk sökning och kodgenerering.
Dricks
DeepSeek-R1 är tillgängligt för distribution som serverlös API-slutpunkt.
Azure AI-modellinferens är ett sätt att använda modeller som API:er utan att vara värd för dem i din infrastruktur. Modeller finns i en Microsoft-hanterad infrastruktur som ger API-baserad åtkomst till modellleverantörens modell. API-baserad åtkomst kan avsevärt minska kostnaden för att komma åt en modell och förenkla etableringsupplevelsen.
Azure AI-modellinferens är en del av Azure AI Services och användare kan komma åt tjänsten via REST-API:er, SDK:er på flera språk som Python, C#, JavaScript och Java. Du kan också använda Azure AI-modellinferensen från Azure AI Foundry genom att konfigurera en anslutning.
Modeller
Du kan få åtkomst till viktiga modellleverantörer i branschen, inklusive OpenAI, Microsoft, Meta, Mistral, Cohere, G42 och AI21 Labs. Modellleverantörer definierar licensvillkoren och anger priset för användning av sina modeller. I följande lista visas alla tillgängliga modeller:
Dricks
Se artikeln Modeller för en detaljerad vy över modeller, funktioner och information.
Provider | Modeller |
---|---|
AI21 Labs | - AI21-Jamba-1.5-Mini – AI21-Jamba-1.5-Large |
Azure OpenAI | - o1 - gpt-4o - o1-förhandsversion - o1-mini - gpt-4o-mini - text-embedding-3-large - text-inbäddning-3-small |
Sammanstängd | - Cohere-embed-v3-english - Cohere-embed-v3-multilingual - Cohere-command-r-plus-08-2024 - Cohere-command-r-08-2024 - Cohere-command-r-plus - Cohere-command-r |
Core42 | - jais-30b-chat |
Meta | - Llama-3.3-70B-Instruct - Llama-3.2-11B-Vision-Instruct - Llama-3.2-90B-Vision-Instruct - Meta-Llama-3.1-405B-Instruct - Meta-Llama-3-8B-Instruct - Meta-Llama-3.1-70B-Instruct - Meta-Llama-3.1-8B-Instruct - Meta-Llama-3-70B-Instruct |
Microsoft | - Phi-3-mini-128k-instruct - Phi-3-mini-4k-instruct - Phi-3-small-8k-instruct - Phi-3-medium-128k-instruct - Phi-3-medium-4k-instruct - Phi-3.5-vision-instruct - Phi-3.5-MoE-instruct - Phi-3-small-128k-instruct - Phi-3.5-mini-instruct - Phi-4 |
Mistral AI | - Ministral-3B - Mistral-large - Mistral-small - Mistral-Nemo - Mistral-large-2407 - Mistral-Large-2411 - Codestral-2501 |
NTT-data | - Tsuzumi-7b |
Prissättning
För modeller från icke-Microsoft-leverantörer (till exempel Meta AI- och Mistral-modeller) sker faktureringen via Azure Marketplace. För sådana modeller måste du prenumerera på det specifika modellerbjudandet i enlighet med Användningsvillkoren för Microsoft Commercial Marketplace. Användare accepterar licensvillkor för användning av modellerna. Prisinformation för förbrukning tillhandahålls under distributionen.
För Microsoft-modeller (till exempel Phi-3-modeller och Azure OpenAI-modeller) är fakturering via Azure-mätare som First Party Consumption Services. Som beskrivs i produktvillkoren köper du förbrukningstjänster från första part med hjälp av Azure-mätare, men de omfattas inte av Villkoren för Azure-tjänsten.
Dricks
Lär dig hur du övervakar och hanterar kostnader i azure AI-modellinferens.
Ansvarsfull AI
På Microsoft är vi engagerade i utvecklingen av AI som drivs av principer som sätter människor först. Generativa modeller som de som är tillgängliga i Azure AI-modeller har betydande potentiella fördelar, men utan noggrann design och tankeväckande åtgärder kan sådana modeller generera felaktigt eller till och med skadligt innehåll.
Microsoft hjälper till att skydda mot missbruk och oavsiktlig skada genom att vidta följande åtgärder:
- Införliva Microsofts principer för ansvarsfull AI-användning
- Anta en uppförandekod för användning av tjänsten
- Skapa innehållsfilter för att stödja kunder
- Tillhandahålla ansvarsfull AI-information och vägledning som kunderna bör tänka på när de använder Azure OpenAI.
Komma igång
Azure AI-modellinferens är ett nytt funktionserbjudande för Azure AI Services-resurser. Du kan komma igång med det på samma sätt som andra Azure-produkter där du skapar och konfigurerar din resurs för Azure AI-modellinferens, eller instans av tjänsten, i din Azure-prenumeration. Du kan skapa så många resurser som behövs och konfigurera dem separat om du har flera team med olika krav.
När du har skapat en Azure AI Services-resurs måste du distribuera en modell innan du kan börja göra API-anrop. Som standard är inga modeller tillgängliga på den, så du kan styra vilka som ska startas från. Se självstudien Skapa din första modelldistribution i Azure AI-modellinferens.