Condividi tramite


Esportare e importare notebook di Databricks

Questa pagina descrive come importare ed esportare notebook in Azure Databricks e i formati di notebook supportati da Azure Databricks.

Formati di notebook supportati

Databricks può importare ed esportare notebook nei formati seguenti:

  • File di origine: file contenente solo istruzioni di codice sorgente con l'estensione .scala, .py, .sqlo .r.
  • HTML: notebook di Azure Databricks con l'estensione .html.
  • Archivio di Databricks .dbc .
  • Notebook IPython: notebook di Jupyter con l'estensione .ipynb.
  • RMarkdown: documento R Markdown con l'estensione .Rmd.

Importare un notebook

È possibile importare un notebook esterno da un URL o da un file. È anche possibile importare un archivio ZIP di notebook esportati in blocco da un'area di lavoro di Azure Databricks.

  1. Cliccare Icona Area di lavoro Area di lavoro nella barra laterale. Eseguire una delle operazioni seguenti:
    • Fare clic con il pulsante destro del mouse su una cartella e scegliere Importa.
    • Per importare un notebook al livello superiore della cartella dell'area di lavoro corrente, fare clic sul menu kebab in alto a destra e selezionare Importa.
  2. Specificare l'URL o passare a un file contenente un formato esterno supportato o un archivio ZIP di notebook esportati da un'area di lavoro di Azure Databricks.
  3. Cliccare Importa.
    • Se si sceglie un singolo notebook, viene esportato nella cartella corrente.
    • Se si sceglie un archivio DBC o ZIP, la relativa struttura di cartelle viene ricreata nella cartella corrente e ogni notebook viene importato.

Importare un file e convertirlo in un notebook

È possibile convertire script Python, SQL, Scala e R in notebook a cella singola aggiungendo un commento alla prima cella del file:

Python

# Databricks notebook source

SQL

-- Databricks notebook source

Scala

// Databricks notebook source

R

# Databricks notebook source

Per definire le celle in uno script, usare il commento speciale illustrato di seguito. Quando si importa lo script in Databricks, le celle vengono create come contrassegnate dalle COMMAND righe visualizzate.

Python

# COMMAND ----------

SQL

-- COMMAND ----------

Scala

// COMMAND ----------

R

# COMMAND ----------

Esportare notebook

Nota

Quando si esporta un notebook come HTML, IPython notebook (con estensione ipynb) o archivio (DBC) e non sono stati cancellati gli output dei comandi, gli output vengono inclusi nell'esportazione.

Per esportare un notebook, selezionare Esportazione file > nella barra degli strumenti del notebook e selezionare il formato di esportazione.

Per esportare tutte le cartelle in una cartella dell'area di lavoro come archivio ZIP:

  1. Cliccare Icona Area di lavoro Area di lavoro nella barra laterale.
  2. Fare clic con il pulsante destro del mouse sulla cartella e scegliere Esporta.
  3. Selezionare il formato di esportazione:
    • Archivio DBC: esportare un archivio databricks, un formato binario che include i metadati e gli output dei comandi del notebook.
    • File di origine: esportare un archivio ZIP dei file di origine del notebook, che possono essere importati in un'area di lavoro di Azure Databricks, usati in una pipeline CI/CD o visualizzati come file di origine nella lingua predefinita di ogni notebook. Gli output dei comandi del notebook non sono inclusi.
    • Archivio HTML: esportare un archivio ZIP di file HTML. Il file HTML di ogni notebook può essere importato in un'area di lavoro di Azure Databricks o visualizzato come HTML. Gli output dei comandi del notebook sono inclusi.