Condividi tramite


Distribuire modelli per l'inferenza e la previsione in blocco

Questo articolo descrive le raccomandazioni di Databricks per l'inferenza batch.

Per la gestione di modelli in tempo reale in Azure Databricks, vedere Distribuire modelli con Mosaic AI Model Serving.

Funzioni di intelligenza artificiale per l'inferenza batch

Importante

Questa funzionalità è disponibile in anteprima pubblica.

Le funzioni di intelligenza artificiale sono funzioni predefinite che è possibile usare per applicare l'intelligenza artificiale ai dati archiviati in Databricks. È possibile eseguire l'inferenza batch usando funzioni di intelligenza artificiale specifiche dell'attività o la funzione per utilizzo generico ai_query. Per la flessibilità, Databricks consiglia di usare ai_query per l'inferenza batch.

Esistono due modi principali per usare ai_query per l'inferenza batch:

Inferenza batch utilizzando un DataFrame di Spark

Vedere Eseguire l'inferenza batch usando un di dataframe Spark per una guida dettagliata al flusso di lavoro di inferenza del modello con Spark.

Per esempi di inferenza del modello di Deep Learning, vedere gli articoli seguenti:

Estrazione di dati strutturati e inferenza batch con Spark UDF

Il notebook di esempio seguente illustra lo sviluppo, la registrazione e la valutazione di un semplice agente per l'estrazione di dati strutturati per trasformare i dati non elaborati e non strutturati in informazioni organizzate e utilizzabili tramite tecniche di estrazione automatizzata. Questo approccio illustra come implementare agenti personalizzati per l'inferenza batch usando la classe PythonModel di MLflow e usare il modello dell'agente registrato come funzione UDF (Spark User-Defined Function). Questo notebook illustra anche come sfruttare la valutazione dell'agente di intelligenza artificiale Mosaic per valutare l'accuratezza usando i dati di verità di base.

Estrazione di dati strutturati e inferenza batch usando Spark UDF

Prendi il taccuino

:::