Sammanfattning
Notebook-filer är ett av de vanligaste sätten som datatekniker och dataanalytiker implementerar datainmatning och bearbetningslogik i Azure Databricks. Om du använder Azure Data Factory för att köra notebook-filer i en pipeline kan du skapa databearbetningslösningar som kan köras på begäran, med schemalagda intervall eller som svar på en viss händelse.
I den här modulen har du lärt dig att:
- Beskriv hur Azure Databricks-notebook-filer kan köras i en pipeline.
- Skapa en länkad Azure Data Factory-tjänst för Azure Databricks.
- Använd en Notebook-aktivitet i en pipeline.
- Skicka parametrar till en notebook-fil.