搭配適用於 Python 的 Databricks Connect 使用傳統 Jupyter Notebook
注意
本文涵蓋 Databricks Runtime 13.3 LTS 和更新版本適用的 Databricks Connect。
本文涵蓋如何使用適用於 Python 的 Databricks Connect 搭配 傳統 Jupyter Notebook。 Databricks Connect 可讓您將熱門筆記本伺服器、IDE 和其他自定義應用程式連線到 Azure Databricks 叢集。 請參閱什麼是 Databricks Connect?。
注意
開始使用 Databricks Connect 之前,您必須先 設定 Databricks Connect 用戶端。
若要搭配傳統 Jupyter Notebook 和 Python 使用 Databricks Connect,請遵循這些指示。
若要安裝傳統 Jupyter Notebook,請啟動 Python 虛擬環境,從終端機或命令提示字元執行下列命令:
pip3 install notebook
若要在網頁瀏覽器中啟動傳統 Jupyter Notebook,請從您啟動的 Python 虛擬環境執行下列命令:
jupyter notebook
如果傳統 Jupyter Notebook 未出現在網頁瀏覽器中,請複製開頭
localhost
127.0.0.1
為 虛擬環境的 URL,然後在網頁瀏覽器的網址列中輸入它。建立新的筆記本:在傳統 Jupyter Notebook 中,按兩下 [檔案] 索引卷標上的 [新增 > Python 3](ipykernel)。
在筆記本的第一個數據格中 ,輸入範例程式代碼或您自己的程序代碼 。 如果您使用自己的程式代碼,您至少必須初始化
DatabricksSession
,如範例程式代碼所示。若要執行筆記本,請按兩下 [ 儲存格 > 全部執行]。 所有 Python 程式代碼都會在本機執行,而涉及 DataFrame 作業的所有 PySpark 程式代碼都會在遠端 Azure Databricks 工作區的叢集上執行,並執行回應會傳回給本機呼叫者。
若要對筆記本進行偵錯,請在筆記本開頭新增下列程式代碼行:
from IPython.core.debugger import set_trace
然後呼叫
set_trace()
以在該筆記本執行點輸入偵錯語句。 所有 Python 程式代碼都會在本機偵錯,而所有 PySpark 程式代碼都會繼續在遠端 Azure Databricks 工作區中的叢集上執行。 核心 Spark 引擎程式代碼無法直接從客戶端進行偵錯。若要關閉傳統 Jupyter Notebook,請按兩下 [ 檔案 > 關閉並停止]。 如果傳統 Jupyter Notebook 程式仍在終端機或命令提示字元中執行,請按
Ctrl + c
,然後輸入y
以確認來停止此程式。