Usare jupyter notebook classico con Databricks Connect per Python
Nota
Questo articolo illustra Databricks Connect per Databricks Runtime 13.3 LTS e versioni successive.
Questo articolo illustra come usare Databricks Connect per Python con Jupyter Notebook classico. Databricks Connect consente di connettere i server notebook, gli IDE e altre applicazioni personalizzate più diffusi ai cluster di Azure Databricks. Consultare Cos’è Databricks Connect?.
Nota
Prima di iniziare a usare Databricks Connect, è necessario configurare il client Databricks Connect.
Per usare Databricks Connect with classic Jupyter Notebook and Python (Connettersi con Jupyter Notebook classico e Python), seguire queste istruzioni.
Per installare Jupyter Notebook classico, con l'ambiente virtuale Python attivato, eseguire il comando seguente dal terminale o dal prompt dei comandi:
pip3 install notebook
Per avviare jupyter notebook classico nel Web browser, eseguire il comando seguente dall'ambiente virtuale Python attivato:
jupyter notebook
Se Jupyter Notebook classico non viene visualizzato nel Web browser, copiare l'URL che inizia con
localhost
o127.0.0.1
dall'ambiente virtuale e immetterlo nella barra degli indirizzi del Web browser.Creare un nuovo notebook: nel notebook jupyter classico fare clic su Nuovo Python 3 (ipykernel) nella scheda File>.
Nella prima cella del notebook immettere il codice di esempio o il proprio codice. Se si usa il proprio codice, è necessario inizializzare
DatabricksSession
almeno come illustrato nel codice di esempio.Per eseguire il notebook, fare clic su Cella > Esegui tutto. Tutto il codice Python viene eseguito localmente, mentre tutto il codice PySpark che coinvolge le operazioni del dataframe viene eseguito nel cluster nell'area di lavoro remota di Azure Databricks e le risposte di esecuzione vengono inviate al chiamante locale.
Per eseguire il debug del notebook, aggiungere la riga di codice seguente all'inizio del notebook:
from IPython.core.debugger import set_trace
Chiamare
set_trace()
quindi per immettere le istruzioni di debug a quel punto dell'esecuzione del notebook. Tutto il codice Python viene sottoposto a debug in locale, mentre tutto il codice PySpark continua a essere eseguito nel cluster nell'area di lavoro remota di Azure Databricks. Il codice principale del motore Spark non può essere sottoposto a debug direttamente dal client.Per arrestare jupyter Notebook classico, fare clic su Chiudi file > e interrompi. Se il processo classico di Jupyter Notebook è ancora in esecuzione nel terminale o nel prompt dei comandi, arrestare questo processo premendo
Ctrl + c
e quindi immettendoy
per confermare.