Dela via


Distribuera modeller för batchinferens och förutsägelse

I den här artikeln beskrivs vad Databricks rekommenderar för batchinferens.

Information om realtidsmodell som betjänar Azure Databricks finns i Distribuera modeller med hjälp av Mosaic AI Model Serving.

Använda ai_query för batchinferens

Viktigt!

Den här funktionen finns som allmänt tillgänglig förhandsversion.

Databricks rekommenderar att du använder ai_query med Modellservering för batchinferens. ai_query är en inbyggd Databricks SQL-funktion som gör att du kan köra frågor mot befintliga modellserverslutpunkter med SQL. Det har verifierats att tillförlitligt och konsekvent bearbeta datauppsättningar i intervallet med miljarder token. Mer information om den här AI-funktionen finns i ai_query funktion .

För snabbexperimentering kan ai_query användas för batch-LLM-slutsatsdragning med pay-per-token-slutpunkter, som är förkonfigurerade på din arbetsyta.

När du är redo att köra batch-LLM-slutsatsdragning på stora data eller produktionsdata rekommenderar Databricks att du använder etablerade dataflödesslutpunkter för snabbare prestanda.

Ett exempel på batchinferens för en traditionell ML-modell finns i följande notebook-fil:

Batch-slutsatsdragning med BERT för notebook-fil för namngiven entitetsigenkänning

Hämta anteckningsbok