Co to jest wnioskowanie modelu AI platformy Azure?
Wnioskowanie modelu AI platformy Azure zapewnia dostęp do najbardziej zaawansowanych modeli dostępnych w katalogu modeli AI platformy Azure. Modele pochodzą od kluczowych dostawców modeli w branży, w tym OpenAI, Microsoft, Meta, Mistral, Cohere, G42 i AI21 Labs. Modele te można zintegrować z rozwiązaniami programowymi, aby dostarczać szeroką gamę zadań obejmujących generowanie zawartości, podsumowywanie, zrozumienie obrazów, wyszukiwanie semantyczne i generowanie kodu.
Napiwek
Rozwiązanie DeepSeek-R1 jest dostępne do wdrożenia jako punkt końcowy bezserwerowego interfejsu API.
Wnioskowanie modelu AI platformy Azure umożliwia korzystanie z modeli jako interfejsów API bez hostowania ich w infrastrukturze. Modele są hostowane w infrastrukturze zarządzanej przez firmę Microsoft, która umożliwia dostęp oparty na interfejsie API do modelu dostawcy modelu. Dostęp oparty na interfejsie API może znacznie obniżyć koszt uzyskiwania dostępu do modelu i uprościć środowisko aprowizacji.
Wnioskowanie modelu AI platformy Azure jest częścią usług Azure AI, a użytkownicy mogą uzyskiwać dostęp do usługi za pośrednictwem interfejsów API REST, zestawów SDK w kilku językach, takich jak Python, C#, JavaScript i Java. Możesz również użyć wnioskowania modelu AI platformy Azure z usługi Azure AI Foundry, konfigurując połączenie.
Modele
Możesz uzyskać dostęp do kluczowych dostawców modeli w branży, w tym OpenAI, Microsoft, Meta, Mistral, Cohere, G42 i AI21 Labs. Dostawcy modeli definiują postanowienia licencyjne i określają cenę użycia swoich modeli. Na poniższej liście przedstawiono wszystkie dostępne modele:
Napiwek
Zobacz artykuł Models ( Modele ), aby uzyskać szczegółowy widok modeli, możliwości i szczegółów.
Dostawca | Modele |
---|---|
Laboratoria AI21 | - AI21-Jamba-1.5-Mini - AI21-Jamba-1.5-Large |
Azure OpenAI | - o1 - gpt-4o - o1-preview - o1-mini - gpt-4o-mini - osadzanie tekstu-3-duże - osadzanie tekstu-3-małe |
Cohere | - Cohere-embed-v3-english - Cohere-embed-v3-wielojęzyczny - Cohere-command-r-plus-08-2024 - Cohere-command-r-08-2024 - Cohere-command-r-plus - Cohere-command-r |
Core42 | - jais-30b-chat |
Meta | - Llama-3.3-70B-Poinstruowanie - Llama-3.2-11B-Vision-Poinstruowanie - Llama-3.2-90B-Vision-Poinstruowanie - Meta-Llama-3.1-405B-Poinstruowanie - Meta-Llama-3-8B-Poinstruowanie - Meta-Llama-3.1-70B-Poinstruowanie - Meta-Llama-3.1-8B-Poinstruowanie - Meta-Llama-3-70B-Poinstruowanie |
Microsoft | - Phi-3-mini-128k-poinstruowanie - Phi-3-mini-4k-poinstruowanie - Phi-3-small-8k-poinstruuj - Phi-3-medium-128k-poinstruowanie - Phi-3-medium-4k-poinstruowanie - Phi-3.5-vision-poinstruowanie - Phi-3.5-MoE-poinstruowanie - Phi-3-small-128k-poinstruowanie - Phi-3.5-mini-poinstruowanie - Phi-4 |
Mistral AI | - Ministral-3B - Mistral-large - Mistral-small - Mistral-Nemo - Mistral-large-2407 - Mistral-Large-2411 - Codestral-2501 |
Dane NTT | - Tsuzumi-7b |
Cennik
W przypadku modeli od dostawców spoza firmy Microsoft (na przykład modeli Meta AI i Mistral) rozliczenia są naliczane za pośrednictwem witryny Azure Marketplace. W przypadku takich modeli musisz zasubskrybować konkretną ofertę modelu zgodnie z warunkami użytkowania platformy handlowej firmy Microsoft. Użytkownicy akceptują postanowienia licencyjne dotyczące używania modeli. Informacje o cenach użycia są udostępniane podczas wdrażania.
W przypadku modeli firmy Microsoft (na przykład modeli Phi-3 i modeli Azure OpenAI) rozliczenia odbywa się za pośrednictwem mierników platformy Azure jako usług użycia pierwszej firmy. Zgodnie z opisem w warunkach produktu kupujesz usługi Zużycie pierwszej firmy przy użyciu mierników platformy Azure, ale nie podlegają warunkom świadczenia usług platformy Azure.
Napiwek
Dowiedz się, jak monitorować koszty i zarządzać nimi w wnioskowaniu modelu AI platformy Azure.
Odpowiedzialne AI
W firmie Microsoft jesteśmy zobowiązani do rozwoju sztucznej inteligencji opartej na zasadach, które stawiają ludzi na pierwszym miejscu. Modele generowania, takie jak te dostępne w modelach sztucznej inteligencji platformy Azure, mają znaczące potencjalne korzyści, ale bez starannego projektowania i przemyślanych środków zaradczych takie modele mogą generować niepoprawną, a nawet szkodliwą zawartość.
Firma Microsoft pomaga chronić przed nadużyciami i niezamierzoną szkodą, wykonując następujące działania:
- Uwzględnienie zasad firmy Microsoft dotyczących odpowiedzialnego używania sztucznej inteligencji
- Przyjęcie kodeksu postępowania w celu korzystania z usługi
- Tworzenie filtrów zawartości do obsługi klientów
- Zapewnianie informacji i wskazówek dotyczących odpowiedzialnej sztucznej inteligencji, które klienci powinni wziąć pod uwagę podczas korzystania z usługi Azure OpenAI.
Wprowadzenie
Wnioskowanie modelu AI platformy Azure to nowa oferta funkcji w zasobach usług Azure AI Services. Możesz rozpocząć pracę tak samo jak każdy inny produkt platformy Azure, w którym tworzysz i konfigurujesz zasób dla wnioskowania modelu sztucznej inteligencji platformy Azure lub wystąpienia usługi w ramach subskrypcji platformy Azure. W razie potrzeby można utworzyć dowolną liczbę zasobów i skonfigurować je niezależnie, jeśli masz wiele zespołów z różnymi wymaganiami.
Po utworzeniu zasobu usług Azure AI Services należy wdrożyć model, zanim będzie można rozpocząć wykonywanie wywołań interfejsu API. Domyślnie nie są dostępne żadne modele, dzięki czemu można kontrolować, od których modeli zacząć. Zobacz samouczek Tworzenie pierwszego wdrożenia modelu w wnioskowaniu modelu AI platformy Azure.