Funzionalità dell'estensione Aggregazioni di Asset di Databricks
L'estensione Databricks per Visual Studio Code offre funzionalità aggiuntive in Visual Studio Code che consentono di definire, distribuire ed eseguire facilmente bundle di asset di Databricks per applicare procedure consigliate ci/CD ai processi di Azure Databricks, pipeline di tabelle live delta e stack MLOps. Consultare Che cosa sono i Databricks Asset Bundle?.
Per installare l'estensione Databricks per Visual Studio Code, vedere Installare l'estensione Databricks per Visual Studio Code.
Supporto dei bundle di asset di Databricks nei progetti
L'estensione Databricks per Visual Studio Code aggiunge le funzionalità seguenti per i progetti Di bundle di asset di Databricks:
- Autenticazione e configurazione semplificate dei bundle di asset di Databricks tramite l'interfaccia utente di Visual Studio Code, inclusa la selezione del profilo AuthType . Si veda Configurazione dell'autenticazione per l'estensione Databricks per Visual Studio Code.
- Selettore di destinazione nel pannello dell'estensione Databricks per passare rapidamente tra gli ambienti di destinazione del bundle. Vedere Modificare l'area di lavoro di distribuzione di destinazione.
- L'opzione Override Jobs cluster in bundle (Esegui override dei processi nel bundle ) nel pannello dell'estensione per abilitare facilmente l'override del cluster.
- Visualizzazione Esplora risorse bundle, che consente di esplorare le risorse del bundle usando l'interfaccia utente di Visual Studio Code, distribuire le risorse locali di Databricks Asset Bundle nell'area di lavoro remota di Azure Databricks con un solo clic e passare direttamente alle risorse distribuite nell'area di lavoro da Visual Studio Code. Vedere Bundle Resource Explorer.
- Visualizzazione bundle variabili, che consente di esplorare e modificare le variabili del bundle usando l'interfaccia utente di Visual Studio Code. Vedere Visualizzazione delle variabili del bundle.
Esplora risorse bundle
La visualizzazione Bundle Resource Explorer nell'estensione Databricks per Visual Studio Code usa le definizioni di processo e pipeline nella configurazione bundle del progetto per visualizzare le risorse. Consente anche di distribuire ed eseguire risorse e di passarvi nell'area di lavoro remota di Azure Databricks. Per informazioni sulle risorse di configurazione del bundle, vedere Risorse.
Ad esempio, data una definizione di processo semplice:
resources:
jobs:
my-notebook-job:
name: "My Notebook Job"
tasks:
- task_key: notebook-task
existing_cluster_id: 1234-567890-abcde123
notebook_task:
notebook_path: notebooks/my-notebook.py
La visualizzazione Bundle Resource Explorer nell'estensione visualizza la risorsa del processo del notebook:
Per distribuire il bundle, fare clic sull'icona cloud (Distribuisci bundle).
Per eseguire il processo, nella visualizzazione Bundle Resource Explorer selezionare il nome del processo, ovvero My Notebook Job in questo esempio. Fare quindi clic sull'icona play (Distribuire il bundle ed eseguire la risorsa).
Per visualizzare il processo in esecuzione, nella visualizzazione Esplora risorse bundle espandere il nome del processo, fare clic su Stato esecuzione e quindi fare clic sul collegamento (Apri collegamento esternamente).
Visualizzazione variabili bundle
La visualizzazione Visualizzazione variabili bundle nell'estensione Databricks per Visual Studio Code visualizza le variabili personalizzate e le impostazioni associate definite nella configurazione del bundle. È anche possibile definire le variabili direttamente usando la visualizzazione Delle variabili bundle. Questi valori sostituiscono quelli impostati nei file di configurazione del bundle. Per informazioni sulle variabili personalizzate, vedere Variabili personalizzate.
Ad esempio, la visualizzazione Visualizzazione variabili bundle nell'estensione visualizza quanto segue:
Per la variabile my_custom_var
definita in questa configurazione del bundle:
variables:
my_custom_var:
description: "Max workers"
default: "4"
resources:
jobs:
my_job:
name: my_job
tasks:
- task_key: notebook_task
job_cluster_key: job_cluster
notebook_task:
notebook_path: ../src/notebook.ipynb
job_clusters:
- job_cluster_key: job_cluster
new_cluster:
spark_version: 13.3.x-scala2.12
node_type_id: i3.xlarge
autoscale:
min_workers: 1
max_workers: ${var.my_custom_var}