Dela via


Grundmodeller som stöds på Mosaic AI Model Serving

Den här artikeln beskriver de grundläggande modeller som du kan använda med Mosaic AI Model Serving.

Grundmodeller är stora, förtränade neurala nätverk som tränas på både stora och breda dataintervall. Dessa modeller är utformade för att lära sig allmänna mönster i språk, bilder eller andra datatyper och kan finjusteras för specifika uppgifter med ytterligare utbildning.

Modellhantering erbjuder flexibla alternativ för att hantera och ställa frågor till grundmodeller baserat på dina behov.

  • Betala per token: Perfekt för experimentering och snabb utforskning. Med det här alternativet kan du köra frågor mot förkonfigurerade slutpunkter på din Databricks-arbetsyta utan åtaganden om infrastruktur i förväg.
  • Provisionerat genomflöde: Rekommenderas för användningar i produktion som kräver prestandagarantier. Med det här alternativet kan du distribuera finjusterade grundmodeller med optimerade serverslutpunkter.
  • Externa modeller: Det här alternativet ger åtkomst till grundläggande modeller som finns utanför Databricks, till exempel de som tillhandahålls av OpenAI eller Anthropic. Dessa modeller kan hanteras centralt i Databricks för effektiv styrning.

Foundation-modeller som finns på Databricks

Databricks är värd för toppmoderna öppna grundmodeller, till exempel Meta Llama. Dessa modeller görs tillgängliga med API:er för Foundation Model och är tillgängliga med antingen betalning per token eller garanterad dataöverföringshastighet.

Betala per token

API:er för grundmodell betalning per token rekommenderas för att komma igång och snabbt utforska. När en modell stöds med API:er för Foundation Model, betalning per token, tillhandahåller Databricks en förkonfigurerad API-slutpunkt i din Azure Databricks-arbetsyta som du kan testa och göra förfrågningar mot. Du kan också interagera och chatta med dessa modeller med hjälp av AI Playground-.

I följande tabell sammanfattas de modeller som stöds för betala per token. Se begränsningar för Foundation Model API:er och modellspecifik tillgänglighet i regioner under.

Viktig

  • Från och med den 11 december 2024 ersätter Meta-Llama-3.3-70B-Instruct stödet för Meta-Llama-3.1-70B-Instruct i Foundation Model API:ers betalning per token-slutpunkter.
  • Meta-Llama-3.1-405B-Instruct är den största öppet tillgängliga, toppmoderna stora språkmodellen som skapats och tränats av Meta och distribuerats av Azure Machine Learning med hjälp av AzureML-modellkatalogen.
  • Följande modeller har nu dragits tillbaka. Se Äldre modeller för rekommenderade ersättningsmodeller.
    • Llama 2 70B Chatt
    • MPT 7B-instruktion
    • MPT 30B-instruktion
Modell Aktivitetstyp Slutpunkt Anteckningar
GTE Large (engelska) Inbäddning databricks-gte-large-en Genererar inte normaliserade inbäddningar.
Meta-Llama-3.3-70B-Instruct Chatt databricks-meta-llama-3-3-70b-instruct
Meta-Llama-3.1-405B-Instruct* Chatt databricks-meta-llama-3-1-405b-instruct
DBRX Instruera Chatt databricks-dbrx-instruct Den här modellen stöds inte längre efter den 30 april 2025.
Mixtral-8x7B Instruct Chatt databricks-mixtral-8x7b-instruct Den här modellen stöds inte längre efter den 30 april 2025.
BGE Stor (engelska) Inbäddning databricks-bge-large-en

* Kontakta ditt Databricks-kontoteam om du stöter på slutpunktsfel eller stabiliseringsfel när du använder den här modellen.

Provisionerad kapacitet

API:er för grundmodell etablerat dataflöde rekommenderas för produktionsfall. Du kan skapa en slutpunkt som använder etablerat dataflöde för att distribuera finjusterade grundmodellarkitekturer. När du använder allokerad genomströmning optimeras slutpunkten för tjänstgöring för basmodellarbeten som kräver prestandagarantier.

I följande tabell sammanfattas de modellarkitekturer som stöds för etablerat dataflöde. Databricks rekommenderar att du använder förtränad grundmodeller i Unity Catalog för etablerade dataflödesarbetsbelastningar. Se Begränsningar för etablerat dataflöde för Meta Llama-modellvarianter och tillgängliga regioner som stöds.

Viktig

Meta Llama 3.3 är licensierad enligt LLAMA 3.3 Community License, Copyright © Meta Platforms, Inc. Alla rättigheter reserverade. Kunderna ansvarar för att se till att de följer villkoren i den här licensen och Llama 3.3 Policy för godtagbar användning.

Meta Llama 3.2 är licensierad enligt LLAMA 3.2 Community License, Copyright © Meta Platforms, Inc. Alla rättigheter reserverade. Kunderna ansvarar för att säkerställa att de följer villkoren i den här licensen och Llama 3.2-policyn för godtagbar användning.

Meta Llama 3.1 är licensierad enligt LLAMA 3.1 Community License, Copyright © Meta Platforms, Inc. Alla rättigheter reserverade. Kunderna ansvarar för att säkerställa efterlevnaden av tillämpliga modelllicenser.

Modellarkitektur Aktivitetstyper Anteckningar
DeepSeek R1 Chatt Du kan ladda ned dessa modeller, registrera dem i Unity Catalog och distribuera dem med hjälp av etablerat dataflöde.
Meta Llama 3.3 Chatt eller slutförande
Meta Llama 3.2 3B Chatt eller slutförande
Meta Llama 3.2 1B Chatt eller slutförande
Meta Llama 3.1 Chatt eller slutförande
Meta Llama 3 Chatt eller slutförande
Meta Llama 2 Chatt eller slutförande
DBRX Chatt eller slutförande
Mistral Chatt eller slutförande
Mixtral Chatt eller slutförande
MPT Chatt eller slutförande
GTE v1.5 (engelska) Inbäddning Genererar inte normaliserade inbäddningar.
BGE v1.5 (engelska) Inbäddning

Access Foundation-modeller som finns utanför Databricks

Grundmodeller som skapats av LLM-leverantörer, till exempel OpenAI och Anthropic, är också tillgängliga på Databricks med hjälp av externa modeller. Dessa modeller finns utanför Databricks och du kan skapa en slutpunkt för att fråga dem. Dessa slutpunkter kan styras centralt från Azure Databricks, vilket effektiviserar användningen och hanteringen av olika LLM-leverantörer i din organisation.

I följande tabell visas en icke-fullständig lista över modeller som stöds och motsvarande slutpunktstyper. Du kan använda de listade modellassociationerna för att hjälpa dig att konfigurera en slutpunkt för alla nyligen släppta modelltyper när de blir tillgängliga med en viss leverantör. Kunderna ansvarar för att säkerställa efterlevnaden av tillämpliga modelllicenser.

Obs

Med den snabba utvecklingen av LLM:er finns det ingen garanti för att listan är uppdaterad hela tiden. Nya modellversioner från samma provider stöds vanligtvis även om de inte finns med i listan.

Modellprovider llm/v1/completions llm/v1/chat llm/v1/embeddings
OpenAI** - gpt-3.5-turbo-instruct
- babbage-002
- davinci-002
- o1
- o1-mini
- o1-mini-2024-09-12
- gpt-3.5-turbo
- gpt-4
- gpt-4-turbo
- gpt-4-turbo-2024-04
- gpt-4o
- gpt-4o-2024-05-13
- gpt-4o-mini
- text-embedding-ada-002
- text-embedding-3-large
- text-inbäddning-3-small
Azure OpenAI** - text-davinci-003
- gpt-35-turbo-instruct
- o1
- o1-mini
- gpt-35-turbo
- gpt-35-turbo-16k
- gpt-4
- gpt-4-turbo
- gpt-4-32k
- gpt-4o
- gpt-4o-mini
- text-embedding-ada-002
- text-embedding-3-large
- text-inbäddning-3-small
Människoorienterad - Claude-1
- claude-1.3-100k
- Claude-2
- claude-2.1
- claude-2.0
- claude-instant-1.2
- claude-3-5-sonnet-latest
- claude-3-5-haiku-latest
- claude-3-5-opus-latest
- claude-3-5-sonnet-20241022
- claude-3-5-haiku-20241022
- claude-3-5-sonnet-20240620
- claude-3-haiku-20240307
- claude-3-opus-20240229
- claude-3-sonnet-20240229
Cohere** - kommando
– kommandoljus
- command-r7b-12-2024
- command-r-plus-08-2024
- command-r-08-2024
- command-r-plus
- command-r
- kommando
- kommando-lätt-nattlig
– kommandoljus
- kommando-nattetid
- embed-english-v2.0
- embed-multilingual-v2.0
- embed-english-light-v2.0
- embed-english-v3.0
- embed-english-light-v3.0
- embed-multilingual-v3.0
- embed-multilingual-light-v3.0
Mosaiks AI-modelltjänstgöring Databricks-serverslutpunkt Databricks-serverslutpunkt Databricks-serverslutpunkt
Amazon Bedrock Antropisk:

- claude-instant-v1
- claude-v2

Sammanhålla

- command-text-v14
- command-light-text-v14

AI21 Labs:

- j2-grande-instruct
- j2-jumbo-instruct
- j2-mid
- j2-mid-v1
- j2-ultra
- j2-ultra-v1
Antropisk:

- claude-3-5-sonnet-20241022-v2:0
- claude-3-5-haiku-20241022-v1:0
- claude-3-opus-20240229-v1:0
- claude-3-sonnet-20240229-v1:0
- claude-3-5-sonnet-20240620-v1:0

Sammanhålla

- command-r-plus-v1:0
- command-r-v1:0
Amason:

- titan-embed-text-v1
- titan-embed-g1-text-02

Sammanhålla

- embed-english-v3
- embed-multilingual-v3
AI21 Labs† - j2-mid
- j2-light
- j2-ultra
Google Cloud Vertex AI text-bison - chat-bison
- gemini-pro
- gemini-1.0-pro
- gemini-1.5-pro
- gemini-1.5-flash
- gemini-2.0-flash
- text-embedding-004
- text-inbäddning-005
- textembedding-gecko

** Modellleverantören stöder anpassade slutförande- och chattmodeller. Om du vill köra frågor mot en finjusterad modell fyller du i fältet name i external model-konfigurationen med namnet på din finjusterade modell.

† Modellprovidern stöder anpassade kompletteringsmodeller.

Skapa basmodell som betjänar slutpunkter

Om du vill köra frågor mot och använda grundmodeller i dina AI-program måste du först skapa en modell som betjänar slutpunkten. Modellservern använder ett enhetligt API och användargränssnitt för att skapa och uppdatera basmodell som betjänar slutpunkter.

Frågegrundsmodell som betjänar slutpunkter

När du har skapat din tjänsteslutpunkt kan du fråga din stiftelsemodell. Modellservern använder ett enhetligt OpenAI-kompatibelt API och SDK för att köra frågor mot grundmodeller. Den här enhetliga upplevelsen förenklar hur du experimenterar med och anpassar grundmodeller för produktion i moln och leverantörer som stöds.

Se Query grundmodeller.