Riepilogo
I notebook sono uno dei modi più comuni con cui gli ingegneri e gli analisti dei dati implementano la logica di inserimento ed elaborazione dei dati in Azure Databricks. Usando Azure Data Factory per eseguire notebook in una pipeline, è possibile creare soluzioni di elaborazione dei dati che possono essere eseguite su richiesta, a intervalli pianificati o in risposta a un evento specifico.
Contenuto del modulo:
- Descrivere in che modo i notebook di Azure Databricks possono essere eseguiti in una pipeline.
- Creare un servizio collegato di Azure Data Factory per Azure Databricks.
- Usare un'attività Notebook in una pipeline.
- Passare parametri a un notebook.