Delen via


JupyterLab gebruiken met Databricks Connect voor Python

Notitie

Dit artikel bevat informatie over Databricks Connect voor Databricks Runtime 13.3 LTS en hoger.

In dit artikel wordt beschreven hoe u Databricks Connect voor Python gebruikt met JupyterLab. Met Databricks Connect kunt u populaire notebookservers, IDE's en andere aangepaste toepassingen verbinden met Azure Databricks-clusters. Zie Wat is Databricks Connect?

Notitie

Voordat u Databricks Connect gaat gebruiken, moet u de Databricks Connect-client instellen.

Als u Databricks Connect wilt gebruiken met JupyterLab en Python, volgt u deze instructies.

  1. Als u JupyterLab wilt installeren, voert u de volgende opdracht uit vanaf uw terminal of opdrachtprompt, terwijl uw virtuele Python-omgeving is geactiveerd:

    pip3 install jupyterlab
    
  2. Als u JupyterLab in uw webbrowser wilt starten, voert u de volgende opdracht uit vanuit uw geactiveerde virtuele Python-omgeving:

    jupyter lab
    

    Als JupyterLab niet wordt weergegeven in uw webbrowser, kopieert u de URL die begint met localhost of 127.0.0.1 vanuit uw virtuele omgeving en voert u deze in de adresbalk van uw webbrowser in.

  3. Maak een nieuw notitieblok: klik in JupyterLab op Bestand nieuw notitieblok in het hoofdmenu, selecteer Python 3 (ipykernel) en klik op Selecteren.> >

  4. Voer in de eerste cel van het notitieblok de voorbeeldcode of uw eigen code in. Als u uw eigen code gebruikt, moet u minimaal initialiseren DatabricksSession zoals wordt weergegeven in de voorbeeldcode.

  5. Klik op Alle > cellen uitvoeren om het notebook uit te voeren. Alle code wordt lokaal uitgevoerd, terwijl alle code met betrekking tot DataFrame-bewerkingen wordt uitgevoerd op het cluster in de externe Azure Databricks-werkruimte en antwoorden worden teruggestuurd naar de lokale aanroeper.

  6. Als u fouten in het notebook wilt opsporen, klikt u op het foutpictogram (Foutopsporingsprogramma inschakelen) naast Python 3 (ipykernel) in de werkbalk van het notitieblok. Stel een of meer onderbrekingspunten in en klik vervolgens op Alle > cellen uitvoeren. Alle code wordt lokaal opgespoord, terwijl alle Spark-code blijft worden uitgevoerd op het cluster in de externe Azure Databricks-werkruimte. De kerncode van de Spark-engine kan niet rechtstreeks vanuit de client worden opgespoord.

  7. Als u JupyterLab wilt afsluiten, klikt u op Bestand > afsluiten. Als het JupyterLab-proces nog steeds wordt uitgevoerd in uw terminal of opdrachtprompt, stopt u dit proces door op te drukken Ctrl + c en vervolgens y te bevestigen.

Zie Foutopsporingsprogramma voor specifiekere instructies voor foutopsporing.