Dela via


Modellkatalog och samlingar

Modellkatalogen i Azure Machine Learning-studio är navet för att identifiera och använda ett brett utbud av modeller som gör att du kan skapa Generative AI-program. Modellkatalogen innehåller hundratals modeller från modellleverantörer som Azure OpenAI-tjänsten, Mistral, Meta, Cohere, Nvidia, Hugging Face, inklusive modeller som tränats av Microsoft. Modeller från andra leverantörer än Microsoft är icke-Microsoft-produkter, enligt definitionen i Microsofts produktvillkor, och omfattas av villkoren i modellen.

Modellsamlingar

Modeller ordnas efter samlingar i modellkatalogen. Det finns tre typer av samlingar i modellkatalogen:

  • Modeller som har kurerats av Azure AI: De mest populära modellerna med öppen vikt och proprietära från tredje part som paketerats och optimerats för att fungera sömlöst på Azure AI-plattformen. Användning av dessa modeller omfattas av modellleverantörens licensvillkor som tillhandahålls med modellen. När den distribueras i Azure Machine Learning omfattas modellens tillgänglighet av tillämpligt Azure-serviceavtal, och Microsoft tillhandahåller stöd för distributionsproblem. Modeller från partner som Meta, NVIDIA, Mistral AI är exempel på modeller som är tillgängliga i samlingen "Curated by Azure AI" i katalogen. Dessa modeller kan identifieras med en grön bockmarkering på modellpanelerna i katalogen eller så kan du filtrera efter samlingen "Kurerade av Azure AI".
  • Azure OpenAI-modeller, exklusivt tillgängliga i Azure: Flaggskeppsmodeller för Azure OpenAI via samlingen "Azure OpenAI" via en integrering med Azure OpenAI-tjänsten. Dessa modeller stöds av Microsoft och deras användning omfattas av produktvillkoren och serviceavtalet för Azure OpenAI Service.
  • Öppna modeller från Hugging Face Hub: Hundratals modeller från HuggingFace-hubben är tillgängliga via samlingen "Hugging Face" för slutsatsdragning i realtid med onlineslutpunkter. HuggingFace skapar och underhåller modeller som finns i HuggingFace-samlingen. Använd HuggingFace-forumet eller HuggingFace-supporten om du behöver hjälp. Läs mer om hur du distribuerar modeller från HuggingFace.

Föreslå tillägg till modellkatalogen: Du kan skicka en begäran om att lägga till en modell i modellkatalogen med hjälp av det här formuläret.

Översikt över modellkatalogfunktioner

Information om Azure OpenAI-modeller finns i Azure OpenAI Service.

För modeller som har kurerats av Azure AI - och Open-modeller från hubben Hugging Face kan vissa av dessa distribueras med ett hanterat beräkningsalternativ, och vissa av dessa är tillgängliga för distribution med serverlösa API:er med betala per användning-fakturering. Dessa modeller kan identifieras, jämföras, utvärderas, finjusteras (när de stöds) och distribueras i stor skala och integreras i dina Generative AI-program med säkerhet och datastyrning i företagsklass.

  • Upptäck: Granska modellkort, prova exempelinferens och bläddra bland kodexempel för att utvärdera, finjustera eller distribuera modellen.
  • Jämför: Jämför riktmärken mellan modeller och datauppsättningar som är tillgängliga i branschen för att bedöma vilken som uppfyller ditt affärsscenario.
  • Utvärdera: Utvärdera om modellen passar för din specifika arbetsbelastning genom att tillhandahålla dina egna testdata. Med utvärderingsmått blir det enkelt att visualisera hur bra den valda modellen fungerar i ditt scenario.
  • Finjustera: Anpassa finjusteringsbara modeller med dina egna träningsdata och välj den bästa modellen genom att jämföra mått mellan alla dina finjusteringsjobb. Inbyggda optimeringar påskyndar finjusteringen och minskar det minne och den beräkning som behövs för finjustering.
  • Distribuera: Distribuera förtränad modeller eller finjusterade modeller sömlöst för slutsatsdragning. Modeller som kan distribueras till hanterad beräkning kan också laddas ned.

Modelldistribution: Hanterad beräkning och serverlöst API (betala per användning)

Modellkatalogen erbjuder två olika sätt att använda modeller från katalogen för din användning: hanterade beräknings- och serverlösa API:er. Vilka distributionsalternativ som är tillgängliga för varje modell varierar. Läs mer om funktionerna i distributionsalternativen och vilka alternativ som är tillgängliga för specifika modeller i tabellerna nedan. Läs mer om databehandling med distributionsalternativen.

Funktioner Hantera databearbetning Serverlöst API (betala per användning)
Distributionsupplevelse och fakturering Modellvikter distribueras till dedikerade Virtual Machines med hanterade onlineslutpunkter. Den hanterade onlineslutpunkten, som kan ha en eller flera distributioner, gör ett REST API tillgängligt för slutsatsdragning. Du debiteras för den virtuella datorns kärntimmar som används av distributionerna. Åtkomst till modeller sker via en distribution som etablerar ett API för åtkomst till modellen. API:et ger åtkomst till den värdbaserade modellen som finns i en central GPU-pool, som hanteras av Microsoft, för slutsatsdragning. Det här åtkomstläget kallas "Modeller som en tjänst". Du debiteras för indata och utdata till API:erna, vanligtvis i token. prisinformation tillhandahålls innan du distribuerar.
API-autentisering Nycklar och Microsoft Entra ID autentisering. Läs mer. Endast nycklar.
Innehållssäkerhet Använd Api:er för Azure Content Safety-tjänsten. Azure AI-innehållssäkerhetsfilter är tillgängliga integrerade med slutsatsdragnings-API:er. Azure AI-innehållssäkerhetsfilter kan faktureras separat.
Nätverksisolering Hanterat Virtual Network med privata slutpunkter. Läs mer.

Distribueringsalternativ

Modell Hantera databearbetning Serverlöst API (betala per användning)
Llama-familjemodeller Llama-3.3-70B-Instruct
Llama-2-7b
Llama-2-7b-chat
Llama-2-13b
Llama-2-13b-chat
Llama-2-70b
Llama-2-70b-chat
Llama-3-8B-Instruct
Llama-3-70B-Instruct
Llama-3-8B
Llama-3-70B
Llama-3.3-70B-Instruct
Llama-3-70B-Instruct
Llama-3-8B-Instruct
Llama-2-7b
Llama-2-7b-chat
Llama-2-13b
Llama-2-13b-chat
Llama-2-70b
Llama-2-70b-chat
Mistral-familjemodeller mistralai-Mixtral-8x22B-v0-1
mistralai-Mixtral-8x22B-Instruct-v0-1
mistral-community-Mixtral-8x22B-v0-1
mistralai-Mixtral-8x7B-v01
mistralai-Mistral-7B-Instruct-v0-2
mistralai-Mistral-7B-v01
mistralai-Mixtral-8x7B-Instruct-v01
mistralai-Mistral-7B-Instruct-v01
Mistral-large (2402)
Mistral-large (2407)
Mistral-small
Ministral-3B
Mistral-Nemo
Gemensamma familjemodeller Inte tillgängliga Cohere-command-r-plus-08-2024
Cohere-command-r-08-2024
Cohere-command-r-plus
Cohere-command-r
Cohere-embed-v3-english
Cohere-embed-v3-multilingual
Cohere-rerank-v3-english
Cohere-rerank-v3-multilingual
JAIS Inte tillgängliga jais-30b-chat
Phi-3-familjemodeller Phi-3-mini-4k-Instruct
Phi-3-mini-128k-Instruct
Phi-3-small-8k-Instruct
Phi-3-small-128k-Instruct
Phi-3-medium-4k-instruct
Phi-3-medium-128k-instruct
Phi-3-vision-128k-Instruct
Phi-3.5-mini-Instruct
Phi-3.5-vision-Instruct
Phi-3.5-MoE-Instruct
Phi-3-mini-4k-Instruct
Phi-3-mini-128k-Instruct
Phi-3-small-8k-Instruct
Phi-3-small-128k-Instruct
Phi-3-medium-4k-instruct
Phi-3-medium-128k-instruct

Phi-3.5-mini-Instruct
Phi-3.5-vision-Instruct
Phi-3.5-MoE-Instruct
Nixtla Inte tillgängliga TimeGEN-1
Andra modeller Tillgängligt Inte tillgängligt

Ett diagram som visar modeller som en tjänst och tjänstcykel för slutpunkter i realtid.

Hantera databearbetning

Möjligheten att distribuera modeller med hanterad beräkning bygger på plattformsfunktioner i Azure Machine Learning för att möjliggöra sömlös integrering över hela Livscykeln för GenAIOps (kallas ibland LLMOps) för den breda samlingen modeller i modellkatalogen.

Ett diagram som visar LLMops livscykel.

Hur görs modeller tillgängliga för hanterad beräkning?

Modellerna görs tillgängliga via Azure Machine Learning-register som aktiverar ML:s första metod för att hantera och distribuera maskininlärningstillgångar, till exempel modellvikter, containerkörningar för att köra modellerna, pipelines för utvärdering och finjustering av modeller och datauppsättningar för benchmarks och exempel. Dessa ML-register bygger på en mycket skalbar och företagsklar infrastruktur som:

Utvärdera och finjustera modeller som distribuerats med hanterad beräkning

Du kan utvärdera och finjustera i "organiseras av Azure AI" i Azure Machine Learning- med hjälp av Azure Machine Learning-pipelines. Du kan antingen välja att ta med din egen utvärderings- och finjusteringskod och bara komma åt modellvikter eller använda Azure Machine Learning-komponenter som erbjuder inbyggda utvärderings- och finjusteringsfunktioner. Läs mer genom att följa den här länken.

Distribuera modeller för slutsatsdragning med hanterad beräkning

Modeller som är tillgängliga för distribution med hanterad beräkning kan distribueras till Azure Machine Learning-onlineslutpunkter för realtidsinferens eller användas för Batch-slutsatsdragning i Azure Machine Learning för batchbearbetning av dina data. När du distribuerar till hanterad beräkning måste du ha en kvot för virtuella datorer i din Azure-prenumeration för de specifika SKU:er som behövs för att köra modellen optimalt. Med vissa modeller kan du distribuera till en tillfälligt delad kvot för att testa modellen. Läs mer om att distribuera modeller:

Skapa generativa AI-appar med hanterad beräkning

Promptflöde erbjuder funktioner för prototyper, experimentering, iterering och distribution av DINA AI-program. Du kan använda modeller som distribuerats med hanterad beräkning i promptflöde med Öppna modell-LLM-verktyget. Du kan också använda REST-API:et som exponeras av de hanterade beräkningen i populära LLM-verktyg som LangChain med Azure Machine Learning-tillägget.

Innehållssäkerhet för modeller som distribueras med hanterad beräkning

Tjänsten Azure AI Content Safety (AACS) är tillgänglig för användning med modeller som distribueras till hanterad beräkning för att söka efter olika kategorier av skadligt innehåll, till exempel sexuellt innehåll, våld, hat och självskadebeteende och avancerade hot som riskidentifiering av jailbreak och skyddad materialtextidentifiering. Du kan referera till den här notebook-filen för referensintegrering med AACS för Llama 2 eller använda verktyget Innehållssäkerhet (text) i Prompt Flow för att skicka svar från modellen till AACS för screening. Du debiteras separat enligt AACS-priser för sådan användning.

Arbeta med modeller som inte finns i modellkatalogen

För modeller som inte är tillgängliga i modellkatalogen tillhandahåller Azure Machine Learning en öppen och utökningsbar plattform för att arbeta med valfria modeller. Du kan ta med en modell med valfritt ramverk eller körning med hjälp av Azure Machine Learnings öppna och utökningsbara plattformsfunktioner, till exempel Azure Machine Learning-miljöer för containrar som kan paketera ramverk och runtimes och Azure Machine Learning-pipelines för kod för att utvärdera eller finjustera modellerna. I den här notebook-filen finns exempelreferens för att importera modeller och arbeta med inbyggda körnings- och pipelines.

Serverlösa API:er med betala per användning-fakturering

Vissa modeller i modellkatalogen kan distribueras som serverlösa API:er med betala per användning-fakturering. den här distributionsmetoden kallas Models-as-a Service (MaaS). Modeller som är tillgängliga via MaaS finns i infrastruktur som hanteras av Microsoft, vilket ger API-baserad åtkomst till modellleverantörens modell. API-baserad åtkomst kan avsevärt minska kostnaden för att komma åt en modell och avsevärt förenkla etableringsupplevelsen. De flesta MaaS-modeller levereras med tokenbaserade priser.

Hur görs modeller från tredje part tillgängliga i MaaS?

Ett diagram som visar modellutgivarens tjänstcykel.

Modeller som är tillgängliga för distribution som serverlösa API:er med betala per användning-fakturering erbjuds av modellprovidern men finns i Microsoft-hanterad Azure-infrastruktur och nås via API. Modellleverantörer definierar licensvillkoren och anger priset för användning av sina modeller, medan Azure Machine Learning-tjänsten hanterar värdinfrastrukturen, gör slutsatsdragnings-API:erna tillgängliga och fungerar som dataprocessor för frågor som skickas och innehållsutdata från modeller som distribueras via MaaS. Läs mer om databehandling för MaaS i artikeln om datasekretess .

Betala för modellanvändning i MaaS

Identifierings-, prenumerations- och förbrukningsupplevelsen för modeller som distribueras via MaaS finns i Azure AI Foundry-portalen och Azure Machine Learning-studio. Användare accepterar licensvillkor för användning av modellerna och prisinformation för förbrukning tillhandahålls under distributionen. Modeller från tredjepartsleverantörer debiteras via Azure Marketplace i enlighet med användningsvillkoren för den kommersiella marknadsplatsen . Modeller från Microsoft debiteras med Hjälp av Azure-mätare som förbrukningstjänster från första part. Som beskrivs i produktvillkoren köps Förbrukningstjänster från första part med Hjälp av Azure-mätare men omfattas inte av Azure-tjänstvillkor. Användning av dessa modeller omfattas av de licensvillkor som anges.

Distribuera modeller för slutsatsdragning via MaaS

Genom att distribuera en modell via MaaS kan användarna få åtkomst till färdiga slutsatsdragnings-API:er utan att behöva konfigurera infrastruktur eller etablera GPU:er, vilket sparar teknisk tid och resurser. Dessa API:er kan integreras med flera LLM-verktyg och användningen faktureras enligt beskrivningen i föregående avsnitt.

Finjustera modeller via MaaS med Betala per användning

För modeller som är tillgängliga via MaaS och stöder finjustering kan användarna dra nytta av värdbaserad finjustering med betala per användning-fakturering för att skräddarsy modellerna med hjälp av data som de tillhandahåller. Mer information finns i finjustera en Llama 2-modell i Azure AI Foundry-portalen.

RAG med modeller som distribueras via MaaS

Med Azure AI Foundry kan användare använda vektorindex och hämtningsförhöjd generation. Modeller som kan distribueras som serverlösa API:er kan användas för att generera inbäddningar och slutsatsdragning baserat på anpassade data för att generera svar som är specifika för deras användningsfall. Mer information finns i Hämta förhöjd generering och index.

Regional tillgänglighet för erbjudanden och modeller

PPay per användning-fakturering är endast tillgängligt för användare vars Azure-prenumeration tillhör ett faktureringskonto i ett land/en region där modellleverantören har gjort erbjudandet tillgängligt. Om erbjudandet är tillgängligt i den relevanta regionen måste användaren ha en hubb/ett projekt i Azure-regionen där modellen är tillgänglig för distribution eller finjustering, i förekommande fall. Mer information finns i Regiontillgänglighet för modeller i serverlösa API-slutpunkter .

Innehållssäkerhet för modeller som distribueras via MaaS

Viktigt!

Den här funktionen är för närvarande i allmänt tillgänglig förhandsversion. Den här förhandsversionen tillhandahålls utan ett serviceavtal och vi rekommenderar det inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade.

Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.

För språkmodeller som distribueras via serverlösa API:er implementerar Azure AI en standardkonfiguration av textmodereringsfilter för Azure AI Content Safety som identifierar skadligt innehåll som hat, självskadebeteende, sexuellt och våldsamt innehåll. Mer information om innehållsfiltrering (förhandsversion) finns i Skadekategorier i Azure AI Content Safety.

Dricks

Innehållsfiltrering (förhandsversion) är inte tillgängligt för vissa modelltyper som distribueras via serverlösa API:er. Dessa modelltyper omfattar inbäddningsmodeller och tidsseriemodeller.

Innehållsfiltrering (förhandsversion) sker synkront när tjänstprocesserna uppmanar till att generera innehåll. Du kan debiteras separat enligt prissättningen för Azure AI Content Safety för sådan användning. Du kan inaktivera innehållsfiltrering (förhandsversion) för enskilda serverlösa slutpunkter:

  • När du först distribuerar en språkmodell
  • Senare genom att välja växlingsknappen för innehållsfiltrering på sidan med distributionsinformation

Anta att du bestämmer dig för att använda ett annat API än Azure AI Model Inference API för att arbeta med en modell som distribueras via ett serverlöst API. I sådana fall är innehållsfiltrering (förhandsversion) inte aktiverat om du inte implementerar det separat med hjälp av Azure AI Content Safety.

Information om hur du kommer igång med Azure AI Content Safety finns i Snabbstart: Analysera textinnehåll. Om du inte använder innehållsfiltrering (förhandsversion) när du arbetar med modeller som distribueras via serverlösa API:er löper du en högre risk att utsätta användare för skadligt innehåll.

Nätverksisolering för modeller som distribueras via serverlösa API:er

Slutpunkter för modeller som distribueras som Serverlösa API:er följer flaggan för offentlig nätverksåtkomst (PNA) för arbetsytan där distributionen finns. Om du vill skydda Din MaaS-slutpunkt inaktiverar du PNA-flaggan på din arbetsyta. Du kan skydda inkommande kommunikation från en klient till slutpunkten med hjälp av en privat slutpunkt för arbetsytan.

Så här anger du PNA-flaggan för arbetsytan:

  • Gå till Azure-portalen.
  • Sök efter Azure Machine Learning och välj din arbetsyta i listan över arbetsytor.
  • På sidan Översikt använder du det vänstra navigeringsfönstret för att gå till Inställningar>Nätverk.
  • Under fliken Offentlig åtkomst kan du konfigurera inställningar för åtkomstflaggan för offentligt nätverk.
  • Spara dina ändringar. Det kan ta upp till fem minuter att sprida ändringarna.

Begränsningar

  • Om du har en arbetsyta med en privat slutpunkt som skapats före den 11 juli 2024 följer inte nya MaaS-slutpunkter som lagts till på den här arbetsytan nätverkskonfigurationen. I stället måste du skapa en ny privat slutpunkt för arbetsytan och skapa nya serverlösa API-distributioner på arbetsytan så att de nya distributionerna kan följa arbetsytans nätverkskonfiguration.
  • Om du har en arbetsyta med MaaS-distributioner som skapades före den 11 juli 2024 och du aktiverar en privat slutpunkt på den här arbetsytan följer inte de befintliga MaaS-distributionerna arbetsytans nätverkskonfiguration. För att serverlösa API-distributioner på arbetsytan ska kunna följa arbetsytans konfiguration måste du skapa distributionerna igen.
  • För närvarande är stöd för Dina data inte tillgängligt för MaaS-distributioner på privata arbetsytor, eftersom privata arbetsytor har PNA-flaggan inaktiverad.
  • Alla ändringar i nätverkskonfigurationen (till exempel aktivering eller inaktivering av PNA-flaggan) kan ta upp till fem minuter att sprida.

Läs mer