Udostępnij za pośrednictwem


Co to jest wnioskowanie modelu AI platformy Azure?

Wnioskowanie modelu AI platformy Azure zapewnia dostęp do najbardziej zaawansowanych modeli dostępnych w katalogu modeli AI platformy Azure. Modele pochodzą od kluczowych dostawców modeli w branży, w tym OpenAI, Microsoft, Meta, Mistral, Cohere, G42 i AI21 Labs. Modele te można zintegrować z rozwiązaniami programowymi, aby dostarczać szeroką gamę zadań obejmujących generowanie zawartości, podsumowywanie, zrozumienie obrazów, wyszukiwanie semantyczne i generowanie kodu.

Napiwek

Rozwiązanie DeepSeek-R1 jest dostępne do wdrożenia jako punkt końcowy bezserwerowego interfejsu API.

Wnioskowanie modelu AI platformy Azure umożliwia korzystanie z modeli jako interfejsów API bez hostowania ich w infrastrukturze. Modele są hostowane w infrastrukturze zarządzanej przez firmę Microsoft, która umożliwia dostęp oparty na interfejsie API do modelu dostawcy modelu. Dostęp oparty na interfejsie API może znacznie obniżyć koszt uzyskiwania dostępu do modelu i uprościć środowisko aprowizacji.

Wnioskowanie modelu AI platformy Azure jest częścią usług Azure AI, a użytkownicy mogą uzyskiwać dostęp do usługi za pośrednictwem interfejsów API REST, zestawów SDK w kilku językach, takich jak Python, C#, JavaScript i Java. Możesz również użyć wnioskowania modelu AI platformy Azure z usługi Azure AI Foundry, konfigurując połączenie.

Modele

Możesz uzyskać dostęp do kluczowych dostawców modeli w branży, w tym OpenAI, Microsoft, Meta, Mistral, Cohere, G42 i AI21 Labs. Dostawcy modeli definiują postanowienia licencyjne i określają cenę użycia swoich modeli. Na poniższej liście przedstawiono wszystkie dostępne modele:

Napiwek

Zobacz artykuł Models ( Modele ), aby uzyskać szczegółowy widok modeli, możliwości i szczegółów.

Dostawca Modele
Laboratoria AI21 - AI21-Jamba-1.5-Mini
- AI21-Jamba-1.5-Large
Azure OpenAI - o1
- gpt-4o
- o1-preview
- o1-mini
- gpt-4o-mini
- osadzanie tekstu-3-duże
- osadzanie tekstu-3-małe
Cohere - Cohere-embed-v3-english
- Cohere-embed-v3-wielojęzyczny
- Cohere-command-r-plus-08-2024
- Cohere-command-r-08-2024
- Cohere-command-r-plus
- Cohere-command-r
Core42 - jais-30b-chat
Meta - Llama-3.3-70B-Poinstruowanie
- Llama-3.2-11B-Vision-Poinstruowanie
- Llama-3.2-90B-Vision-Poinstruowanie
- Meta-Llama-3.1-405B-Poinstruowanie
- Meta-Llama-3-8B-Poinstruowanie
- Meta-Llama-3.1-70B-Poinstruowanie
- Meta-Llama-3.1-8B-Poinstruowanie
- Meta-Llama-3-70B-Poinstruowanie
Microsoft - Phi-3-mini-128k-poinstruowanie
- Phi-3-mini-4k-poinstruowanie
- Phi-3-small-8k-poinstruuj
- Phi-3-medium-128k-poinstruowanie
- Phi-3-medium-4k-poinstruowanie
- Phi-3.5-vision-poinstruowanie
- Phi-3.5-MoE-poinstruowanie
- Phi-3-small-128k-poinstruowanie
- Phi-3.5-mini-poinstruowanie
- Phi-4
Mistral AI - Ministral-3B
- Mistral-large
- Mistral-small
- Mistral-Nemo
- Mistral-large-2407
- Mistral-Large-2411
- Codestral-2501
Dane NTT - Tsuzumi-7b

Cennik

W przypadku modeli od dostawców spoza firmy Microsoft (na przykład modeli Meta AI i Mistral) rozliczenia są naliczane za pośrednictwem witryny Azure Marketplace. W przypadku takich modeli musisz zasubskrybować konkretną ofertę modelu zgodnie z warunkami użytkowania platformy handlowej firmy Microsoft. Użytkownicy akceptują postanowienia licencyjne dotyczące używania modeli. Informacje o cenach użycia są udostępniane podczas wdrażania.

W przypadku modeli firmy Microsoft (na przykład modeli Phi-3 i modeli Azure OpenAI) rozliczenia odbywa się za pośrednictwem mierników platformy Azure jako usług użycia pierwszej firmy. Zgodnie z opisem w warunkach produktu kupujesz usługi Zużycie pierwszej firmy przy użyciu mierników platformy Azure, ale nie podlegają warunkom świadczenia usług platformy Azure.

Napiwek

Dowiedz się, jak monitorować koszty i zarządzać nimi w wnioskowaniu modelu AI platformy Azure.

Odpowiedzialne AI

W firmie Microsoft jesteśmy zobowiązani do rozwoju sztucznej inteligencji opartej na zasadach, które stawiają ludzi na pierwszym miejscu. Modele generowania, takie jak te dostępne w modelach sztucznej inteligencji platformy Azure, mają znaczące potencjalne korzyści, ale bez starannego projektowania i przemyślanych środków zaradczych takie modele mogą generować niepoprawną, a nawet szkodliwą zawartość.

Firma Microsoft pomaga chronić przed nadużyciami i niezamierzoną szkodą, wykonując następujące działania:

Wprowadzenie

Wnioskowanie modelu AI platformy Azure to nowa oferta funkcji w zasobach usług Azure AI Services. Możesz rozpocząć pracę tak samo jak każdy inny produkt platformy Azure, w którym tworzysz i konfigurujesz zasób dla wnioskowania modelu sztucznej inteligencji platformy Azure lub wystąpienia usługi w ramach subskrypcji platformy Azure. W razie potrzeby można utworzyć dowolną liczbę zasobów i skonfigurować je niezależnie, jeśli masz wiele zespołów z różnymi wymaganiami.

Po utworzeniu zasobu usług Azure AI Services należy wdrożyć model, zanim będzie można rozpocząć wykonywanie wywołań interfejsu API. Domyślnie nie są dostępne żadne modele, dzięki czemu można kontrolować, od których modeli zacząć. Zobacz samouczek Tworzenie pierwszego wdrożenia modelu w wnioskowaniu modelu AI platformy Azure.

Następne kroki