Riepilogo

Completato

I notebook sono uno dei modi più comuni con cui gli ingegneri e gli analisti dei dati implementano la logica di inserimento ed elaborazione dei dati in Azure Databricks. Usando Azure Data Factory per eseguire notebook in una pipeline, è possibile creare soluzioni di elaborazione dei dati che possono essere eseguite su richiesta, a intervalli pianificati o in risposta a un evento specifico.

Contenuto del modulo:

  • Descrivere in che modo i notebook di Azure Databricks possono essere eseguiti in una pipeline.
  • Creare un servizio collegato di Azure Data Factory per Azure Databricks.
  • Usare un'attività Notebook in una pipeline.
  • Passare parametri a un notebook.