Wykaz modeli i kolekcje w portalu usługi Azure AI Foundry
Ważne
Elementy oznaczone (wersja zapoznawcza) w tym artykule są obecnie dostępne w publicznej wersji zapoznawczej. Ta wersja zapoznawcza jest udostępniana bez umowy dotyczącej poziomu usług i nie zalecamy korzystania z niej w przypadku obciążeń produkcyjnych. Niektóre funkcje mogą być nieobsługiwane lub ograniczone. Aby uzyskać więcej informacji, zobacz Uzupełniające warunki korzystania z wersji zapoznawczych platformy Microsoft Azure.
Wykaz modeli w portalu usługi Azure AI Foundry to centrum do odnajdywania i używania szerokiej gamy modeli do tworzenia generowanych aplikacji sztucznej inteligencji. Wykaz modeli zawiera setki modeli wśród dostawców modeli, takich jak Azure OpenAI Service, Mistral, Meta, Cohere, NVIDIA i Hugging Face, w tym modele, które szkoli firma Microsoft. Modele od dostawców innych niż Microsoft są produktami innych niż Microsoft, zgodnie z definicją w warunkach produktów firmy Microsoft i podlegają warunkom dostarczonym z modelami.
Kolekcje modeli
Wykaz modeli organizuje modele w różne kolekcje:
Wyselekcjonowany przez usługę Azure AI: najbardziej popularne modele inne niż Microsoft open-weight i zastrzeżone, spakowane i zoptymalizowane pod kątem bezproblemowej pracy na platformie Azure AI. Korzystanie z tych modeli podlega postanowieniom licencyjnym dostawców modeli. Podczas wdrażania tych modeli w portalu Azure AI Foundry ich dostępność podlega odpowiedniej umowie dotyczącej poziomu usług (SLA) platformy Azure, a firma Microsoft zapewnia pomoc techniczną dotyczącą problemów z wdrażaniem.
Modele od partnerów, takich jak Meta, NVIDIA i Mistral AI, to przykłady modeli dostępnych w tej kolekcji w katalogu. Te modele można zidentyfikować, wyszukując zielony znacznik wyboru na kafelkach modelu w katalogu. Możesz też filtrować według kolekcji Curated by Azure AI (Wyselekcjonowane przez sztuczną inteligencję platformy Azure).
Modele usługi Azure OpenAI dostępne wyłącznie na platformie Azure: flagowe modele usługi Azure OpenAI dostępne za pośrednictwem integracji z usługą Azure OpenAI Service. Firma Microsoft obsługuje te modele i ich użycie zgodnie z warunkami produktu i umową SLA dla usługi Azure OpenAI Service.
Otwieranie modeli z centrum Hugging Face: setki modeli z centrum Hugging Face hub na potrzeby wnioskowania w czasie rzeczywistym za pomocą zarządzanych obliczeń. Przytulanie twarzy tworzy i utrzymuje modele wymienione w tej kolekcji. Aby uzyskać pomoc, skorzystaj z forum Hugging Face lub obsługa przytulania twarzy. Dowiedz się więcej w artykule Deploy open models with Azure AI Foundry (Wdrażanie otwartych modeli za pomocą rozwiązania Azure AI Foundry).
Możesz przesłać żądanie dodania modelu do katalogu modeli przy użyciu tego formularza.
Omówienie możliwości wykazu modeli
Możesz wyszukiwać i odnajdywać modele, które spełniają Twoje potrzeby za pomocą i keyword search
filters
. Katalog modeli oferuje również metryki testu porównawczego wydajności modelu dla wybranych modeli. Możesz uzyskać dostęp do testu porównawczego, klikając Compare Models
lub na karcie Test porównawczy karty modelu.
Na karcie modelu znajdziesz:
- Szybkie fakty: na szybki rzut oka zobaczysz kluczowe informacje o modelu.
- Szczegóły: ta strona zawiera szczegółowe informacje o modelu, w tym opis, informacje o wersji, obsługiwany typ danych itp.
- Testy porównawcze: znajdziesz metryki testu porównawczego wydajności dla wybranych modeli.
- Istniejące wdrożenia: jeśli model został już wdrożony, możesz go znaleźć na karcie Istniejące wdrożenia.
- Przykłady kodu: podstawowe przykłady kodu, które ułatwiają rozpoczęcie tworzenia aplikacji sztucznej inteligencji.
- Licencja: znajdziesz informacje prawne dotyczące licencjonowania modelu.
- Artefakty: ta karta będzie wyświetlana tylko dla otwartych modeli. Zasoby modelu można wyświetlić i pobrać za pomocą interfejsu użytkownika.
Wdrażanie modelu: Azure OpenAI
Aby uzyskać więcej informacji na temat modeli usługi Azure OpenAI, zobacz Co to jest usługa Azure OpenAI Service?.
Wdrażanie modelu: zarządzane interfejsy API obliczeniowe i bezserwerowe
Oprócz modeli usługi Azure OpenAI, katalog modeli oferuje dwa różne sposoby wdrażania modeli do użycia: zarządzane interfejsy API obliczeniowe i bezserwerowe.
Opcje wdrażania i funkcje dostępne dla każdego modelu różnią się w zależności od opisu w poniższych tabelach. Dowiedz się więcej o przetwarzaniu danych przy użyciu opcji wdrażania.
Możliwości opcji wdrażania modelu
Funkcje | Zarządzane obliczenia | Bezserwerowy interfejs API (płatność za token) |
---|---|---|
Środowisko wdrażania i rozliczenia | Wagi modelu są wdrażane na dedykowanych maszynach wirtualnych z zarządzanymi obliczeniami. Zarządzane zasoby obliczeniowe, które mogą mieć co najmniej jedno wdrożenie, udostępnia interfejs API REST na potrzeby wnioskowania. Opłaty są naliczane za godziny rdzenia maszyny wirtualnej używane przez wdrożenia. | Dostęp do modeli odbywa się za pośrednictwem wdrożenia, które aprowizuje interfejs API w celu uzyskania dostępu do modelu. Interfejs API zapewnia dostęp do modelu hostowanego przez firmę Microsoft i zarządzania nim w celu wnioskowania. Opłaty są naliczane za dane wejściowe i wyjściowe w interfejsach API, zazwyczaj w tokenach. Informacje o cenach są udostępniane przed wdrożeniem. |
Uwierzytelnianie interfejsu API | Klucze i uwierzytelnianie firmy Microsoft Entra. | Tylko klucze. |
Bezpieczeństwo zawartości | Użyj interfejsów API usługi Azure AI Content Safety Service. | Filtry bezpieczeństwa zawartości platformy Azure AI są dostępne zintegrowane z interfejsami API wnioskowania. Filtry bezpieczeństwa zawartości usługi Azure AI są rozliczane oddzielnie. |
Izolacja sieciowa | Konfigurowanie sieci zarządzanych dla centrów usługi Azure AI Foundry. | Zarządzane zasoby obliczeniowe są zgodne z ustawieniem flagi dostępu do sieci publicznej (PNA) centrum. Aby uzyskać więcej informacji, zobacz sekcję Izolacja sieciowa dla modeli wdrożonych za pośrednictwem bezserwerowych interfejsów API w dalszej części tego artykułu. |
Dostępne modele dla obsługiwanych opcji wdrażania
Poniższa lista zawiera modele bezserwerowego interfejsu API. W przypadku modeli usługi Azure OpenAI zobacz Modele usługi Azure OpenAI.
Model | Zarządzane obliczenia | Bezserwerowy interfejs API (płatność za token) |
---|---|---|
Modele rodziny Llama | Llama-3.2-3B-Poinstruowanie Llama-3.2-1B-Poinstruowanie Llama-3.2-1B Llama-3.2-90B-Vision-Poinstruowanie Llama-3.2-11B-Vision-Poinstruowanie Llama-3.1-8B-Poinstruowanie Llama-3.1-8B Llama-3.1-70B-Poinstruowanie Llama-3.1-70B Llama-3-8B-Instruct Llama-3-70B Llama-3-8B Llama-Guard-3-1B Llama-Guard-3-8B Llama-Guard-3-11B-Vision Llama-2-7b Llama-2-70b Llama-2-7b-chat Llama-2-13b-chat CodeLlama-7b-hf CodeLlama-7b-Instruct-hf CodeLlama-34b-hf CodeLlama-34b-Python-hf CodeLlama-34b-Instruct-hf CodeLlama-13b-Instruct-hf CodeLlama-13b-Python-hf Prompt-Guard-86M CodeLlama-70b-hf |
Llama-3.2-90B-Vision-Poinstruowanie Llama-3.2-11B-Vision-Poinstruowanie Llama-3.1-8B-Poinstruowanie Llama-3.1-70B-Poinstruowanie Llama-3.1-405B-Poinstruowanie Llama-3-8B-Instruct Llama-3-70B-Instruct Llama-2-7b Llama-2-7b-chat Llama-2-70b Llama-2-70b-chat Llama-2-13b Llama-2-13b-chat |
Modele rodziny Mistral | mistralai-Mixtral-8x22B-v0-1 mistralai-Mixtral-8x22B-Instruct-v0-1 mistral-community-Mixtral-8x22B-v0-1 mistralai-Mixtral-8x7B-v01 mistralai-Mistral-7B-Instruct-v0-2 mistralai-Mistral-7B-v01 mistralai-Mixtral-8x7B-Instruct-v01 mistralai-Mistral-7B-Instruct-v01 |
Mistral-large (2402) Mistral-large (2407) Mistral-small Ministral-3B Mistral-NeMo |
Modele rodziny cohere | Niedostępny | Cohere-command-r-plus-08-2024 Cohere-command-r-08-2024 Cohere-command-r-plus Cohere-command-r Cohere-embed-v3-english Cohere-embed-v3-wielojęzyczny Cohere-rerank-v3-english Cohere-rerank-v3-wielojęzyczny |
JAIS | Niedostępny | jais-30b-chat |
Modele rodziny AI21 | Niedostępny | Jamba-1.5-Mini Jamba-1.5-Large |
Modele rodziny sztucznej inteligencji opieki zdrowotnej | MedImageParse MedImageInsight CxrReportGen Virchow Virchow2 Pryzmat BiomedCLIP-PubMedBERT microsoft-llava-med-v1.5 m42-health-llama3-med4 biomistral-biomistral-7b microsoft-biogpt-large-pub microsoft-biomednlp-pub stanford-crfm-biomedlm medicalai-clinicalbert microsoft-biogpt microsoft-biogpt-large microsoft-biomednlp-pub |
Niedostępne |
Modele rodziny Phi-3 | Phi-3-mini-4k-Poinstruowanie Phi-3-mini-128k-Poinstruowanie Phi-3-small-8k-Poinstruuj Phi-3-small-128k-Poinstruuj Phi-3-medium-4k-poinstruowanie Phi-3-medium-128k-poinstruowanie Phi-3-vision-128k-Poinstruowanie Phi-3.5-mini-Poinstruowanie Phi-3.5-vision-Poinstruowanie Phi-3.5-Moe-Poinstruowanie |
Phi-3-mini-4k-Poinstruowanie Phi-3-mini-128k-Poinstruowanie Phi-3-small-8k-Poinstruuj Phi-3-small-128k-Poinstruuj Phi-3-medium-4k-poinstruowanie Phi-3-medium-128k-poinstruowanie Phi-3.5-mini-Poinstruowanie Phi-3.5-vision-Poinstruowanie Phi-3.5-Moe-Poinstruowanie |
Nixtla | Niedostępny | TimeGEN-1 |
Zarządzane obliczenia
Możliwość wdrażania modeli jako zarządzanych obliczeń opiera się na możliwościach platformy usługi Azure Machine Learning, aby umożliwić bezproblemową integrację szerokiej kolekcji modeli w katalogu modeli w całym cyklu życia operacji dużego modelu językowego (LLM).
Dostępność modeli wdrażania jako zarządzanych zasobów obliczeniowych
Modele są udostępniane za pośrednictwem rejestrów usługi Azure Machine Learning. Te rejestry umożliwiają podejście oparte na uczeniu maszynowym do hostowania i rozpowszechniania zasobów usługi Azure Machine Learning. Te zasoby obejmują wagi modeli, środowiska uruchomieniowe kontenerów do uruchamiania modeli, potoki do oceny i dostrajania modeli oraz zestawów danych dla testów porównawczych i przykładów.
Rejestry bazują na wysoce skalowalnej i gotowej do użycia infrastrukturze, która:
Dostarcza artefakty modelu dostępu o małych opóźnieniach do wszystkich regionów świadczenia usługi Azure z wbudowaną replikacją geograficzną.
Obsługuje wymagania dotyczące zabezpieczeń przedsiębiorstwa, takie jak ograniczanie dostępu do modeli przy użyciu usługi Azure Policy i bezpieczne wdrażanie przy użyciu zarządzanych sieci wirtualnych.
Wdrażanie modeli na potrzeby wnioskowania za pomocą zarządzanych zasobów obliczeniowych
Modele dostępne do wdrożenia do zarządzanych zasobów obliczeniowych można wdrożyć w zarządzanych obliczeniach usługi Azure Machine Learning na potrzeby wnioskowania w czasie rzeczywistym. Wdrożenie w zarządzanych obliczeniach wymaga uzyskania limitu przydziału maszyn wirtualnych w ramach subskrypcji platformy Azure dla określonych produktów, które należy optymalnie uruchomić model. Niektóre modele umożliwiają wdrożenie tymczasowego udostępnionego limitu przydziału na potrzeby testowania modelu.
Dowiedz się więcej o wdrażaniu modeli:
Tworzenie aplikacji generacyjnych sztucznej inteligencji przy użyciu zarządzanych zasobów obliczeniowych
Funkcja przepływu monitów w usłudze Azure Machine Learning oferuje doskonałe środowisko do tworzenia prototypów. Modele wdrożone z zarządzanymi obliczeniami można używać w przepływie monitów za pomocą narzędzia Open Model LLM. Możesz również użyć interfejsu API REST udostępnianego przez zarządzane zasoby obliczeniowe w popularnych narzędziach LLM, takich jak LangChain z rozszerzeniem Usługi Azure Machine Learning.
Bezpieczeństwo zawartości dla modeli wdrożonych jako zarządzane zasoby obliczeniowe
Usługa Bezpieczeństwa zawartości usługi Azure AI jest dostępna do użycia z zarządzanymi obliczeniami w celu sprawdzania pod kątem różnych kategorii szkodliwych treści, takich jak zawartość seksualna, przemoc, nienawiść i samookaleczenia. Za pomocą usługi można również wyświetlać zaawansowane zagrożenia, takie jak wykrywanie ryzyka zabezpieczeń systemu i wykrywanie tekstu chronionego materiału.
Zapoznaj się z tym notesem, aby zapoznać się z integracją referencyjną z usługą Azure AI Content Safety for Llama 2. Możesz też użyć narzędzia Bezpieczeństwo zawartości (tekst) w przepływie monitu, aby przekazać odpowiedzi z modelu do bezpieczeństwa zawartości usługi Azure AI na potrzeby kontroli zawartości. Opłaty są naliczane oddzielnie za takie użycie, zgodnie z opisem w temacie Azure AI Content Safety pricing (Cennik bezpieczeństwa zawartości usługi Azure AI).
Rozliczenia interfejsu API bezserwerowego (płatność za token)
Niektóre modele można wdrożyć w wykazie modeli przy użyciu rozliczeń płatności za token. Ta metoda wdrażania, nazywana również bezserwerowym interfejsem API, umożliwia korzystanie z modeli jako interfejsów API bez hostowania ich w ramach subskrypcji. Modele są hostowane w infrastrukturze zarządzanej przez firmę Microsoft, która umożliwia dostęp oparty na interfejsie API do modelu dostawcy modelu. Dostęp oparty na interfejsie API może znacznie obniżyć koszt uzyskiwania dostępu do modelu i uprościć środowisko aprowizacji.
Modele, które są dostępne do wdrożenia jako bezserwerowe interfejsy API z rozliczeniami płatności zgodnie z rzeczywistym użyciem, są oferowane przez dostawcę modelu, ale są hostowane w infrastrukturze platformy Azure zarządzanej przez firmę Microsoft i dostępne za pośrednictwem interfejsu API. Dostawcy modeli definiują postanowienia licencyjne i określają cenę użycia swoich modeli. Usługa Azure Machine Learning:
- Zarządza infrastrukturą hostingu.
- Udostępnia interfejsy API wnioskowania.
- Działa jako procesor danych dla monitów przesłanych i danych wyjściowych zawartości przez modele wdrożone za pośrednictwem usługi MaaS.
Dowiedz się więcej o przetwarzaniu danych dla usługi MaaS w artykule dotyczącym prywatności danych.
Rozliczenia
Środowisko odnajdywania, subskrypcji i użycia dla modeli wdrożonych za pośrednictwem usługi MaaS znajduje się w witrynie Azure AI Foundry Portal i usłudze Azure Machine Learning Studio. Użytkownicy akceptują postanowienia licencyjne dotyczące używania modeli. Informacje o cenach użycia są udostępniane podczas wdrażania.
Modele od dostawców innych niż Microsoft są rozliczane za pośrednictwem witryny Azure Marketplace zgodnie z warunkami użytkowania witryny Microsoft Commercial Marketplace.
Modele firmy Microsoft są rozliczane za pośrednictwem mierników platformy Azure jako usług zużycie przez firmę First Party. Zgodnie z opisem w warunkach produktu kupujesz usługi Zużycie pierwszej firmy przy użyciu mierników platformy Azure, ale nie podlegają warunkom świadczenia usług platformy Azure. Korzystanie z tych modeli podlega podanym postanowieniom licencyjnym.
Dostrajanie modeli
Niektóre modele obsługują również bezserwerowe dostrajanie. W przypadku tych modeli możesz skorzystać z hostowanego dostrajania z rozliczeniami płatności zgodnie z rzeczywistym użyciem, aby dostosować modele przy użyciu udostępnianych danych. Aby uzyskać więcej informacji, zobacz szczegółowe omówienie dostrajania.
Rag z modelami wdrożonym jako bezserwerowe interfejsy API
W portalu azure AI Foundry można użyć indeksów wektorów i generowania rozszerzonego pobierania (RAG). Modele, które można wdrażać za pośrednictwem bezserwerowych interfejsów API, można użyć do generowania osadzania i wnioskowania na podstawie danych niestandardowych. Te osadzanie i wnioskowanie mogą następnie generować odpowiedzi specyficzne dla twojego przypadku użycia. Aby uzyskać więcej informacji, zobacz Tworzenie i używanie indeksów wektorów w portalu usługi Azure AI Foundry.
Regionalna dostępność ofert i modeli
Rozliczanie płatności za token jest dostępne tylko dla użytkowników, których subskrypcja platformy Azure należy do konta rozliczeniowego w kraju, w którym dostawca modelu udostępnił ofertę. Jeśli oferta jest dostępna w odpowiednim regionie, użytkownik musi mieć zasób projektu w regionie świadczenia usługi Azure, w którym model jest dostępny do wdrożenia lub dostrajania, zgodnie z obowiązującymi przepisami. Zobacz Dostępność regionów dla modeli w punktach końcowych bezserwerowego interfejsu API | Usługa Azure AI Foundry zawiera szczegółowe informacje.
Bezpieczeństwo zawartości dla modeli wdrożonych za pośrednictwem bezserwerowych interfejsów API
W przypadku modeli językowych wdrożonych za pośrednictwem bezserwerowych interfejsów API usługa Azure AI implementuje domyślną konfigurację filtrów moderowania tekstu bezpieczeństwa zawartości usługi Azure AI, które wykrywają szkodliwe treści, takie jak nienawiść, samookaleczenia, treści seksualne i brutalne. Aby dowiedzieć się więcej na temat filtrowania zawartości (wersja zapoznawcza), zobacz Kategorie szkód w obszarze Bezpieczeństwo zawartości sztucznej inteligencji platformy Azure.
Napiwek
Filtrowanie zawartości (wersja zapoznawcza) nie jest dostępne dla niektórych typów modeli wdrożonych za pośrednictwem bezserwerowych interfejsów API. Te typy modeli obejmują osadzanie modeli i modeli szeregów czasowych.
Filtrowanie zawartości (wersja zapoznawcza) odbywa się synchronicznie, ponieważ procesy usługi monituje o wygenerowanie zawartości. Opłaty mogą być naliczane oddzielnie zgodnie z cennikiem bezpieczeństwa zawartości usługi Azure AI dla takiego użycia. Możesz wyłączyć filtrowanie zawartości (wersja zapoznawcza) dla pojedynczych punktów końcowych bezserwerowych:
- W momencie pierwszego wdrożenia modelu językowego
- Później, wybierając przełącznik filtrowania zawartości na stronie szczegółów wdrożenia
Załóżmy, że postanawiasz użyć interfejsu API innego niż interfejs API wnioskowania modelu AI platformy Azure do pracy z modelem wdrożonym za pośrednictwem bezserwerowego interfejsu API. W takiej sytuacji filtrowanie zawartości (wersja zapoznawcza) nie jest włączone, chyba że zaimplementowano je oddzielnie przy użyciu bezpieczeństwa zawartości usługi Azure AI.
Aby rozpocząć pracę z bezpieczeństwem zawartości usługi Azure AI, zobacz Szybki start: analizowanie zawartości tekstowej. Jeśli nie używasz filtrowania zawartości (wersja zapoznawcza) podczas pracy z modelami wdrożonym za pośrednictwem bezserwerowych interfejsów API, wystąpi większe ryzyko ujawnienia użytkownikom szkodliwej zawartości.
Izolacja sieciowa dla modeli wdrożonych za pośrednictwem bezserwerowych interfejsów API
Zarządzane obliczenia dla modeli wdrożonych jako bezserwerowe interfejsy API są zgodne z ustawieniem flagi dostępu do sieci publicznej centrum rozwiązania AI Foundry, w którym istnieje projekt wdrożenia. Aby ułatwić zabezpieczanie zarządzanych zasobów obliczeniowych, wyłącz flagę dostępu do sieci publicznej w centrum rozwiązania AI Foundry. Możesz pomóc zabezpieczyć komunikację przychodzącą od klienta do zarządzanych zasobów obliczeniowych przy użyciu prywatnego punktu końcowego dla centrum.
Aby ustawić flagę dostępu do sieci publicznej dla centrum AI Foundry:
- Przejdź do portalu Azure Portal.
- Wyszukaj grupę zasobów, do której należy centrum, a następnie wybierz centrum AI Foundry z zasobów wymienionych dla tej grupy zasobów.
- Na stronie przeglądu centrum w okienku po lewej stronie przejdź do pozycji Ustawienia>Sieć.
- Na karcie Dostęp publiczny można skonfigurować ustawienia flagi dostępu do sieci publicznej.
- Zapisz zmiany. Propagacja zmian może potrwać do pięciu minut.
Ograniczenia
Jeśli masz centrum znajdowania sztucznej inteligencji z zarządzanym wystąpieniem obliczeniowym utworzonym przed 11 lipca 2024 r., zarządzane obliczenia dodane do projektów w tym centrum nie będą zgodne z konfiguracją sieciową centrum. Zamiast tego należy utworzyć nowe zarządzane zasoby obliczeniowe dla centrum i utworzyć nowe wdrożenia bezserwerowego interfejsu API w projekcie, aby nowe wdrożenia mogły być zgodne z konfiguracją sieci koncentratora.
Jeśli masz centrum rozwiązań sztucznej inteligencji z wdrożeniami usługi MaaS utworzonymi przed 11 lipca 2024 r. i włączysz zarządzane zasoby obliczeniowe w tym centrum, istniejące wdrożenia usługi MaaS nie będą zgodne z konfiguracją sieciową centrum. Aby wdrożenia bezserwerowego interfejsu API w centrum postępowały zgodnie z konfiguracją sieci koncentratora, należy ponownie utworzyć wdrożenia.
Obecnie obsługa usługi Azure OpenAI on Your Data nie jest dostępna w przypadku wdrożeń usługi MaaS w prywatnych centrach, ponieważ prywatne centra mają wyłączoną flagę dostępu do sieci publicznej.
Propagowanie dowolnej zmiany konfiguracji sieci (na przykład włączenie lub wyłączenie flagi dostępu do sieci publicznej) może potrwać do pięciu minut.