Condividi tramite


Esercitazione: Eseguire Python in un cluster e come processo usando l'estensione Databricks per Visual Studio Code

Questa esercitazione illustra come configurare l'estensione Databricks per Visual Studio Code e quindi eseguire Python in un cluster Azure Databricks e come processo di Azure Databricks nell'area di lavoro remota. Si veda Che cosa è l'estensione Databricks per Visual Studio Code?.

Requisiti

Per questa esercitazione è necessario:

  • È stata installata l'estensione Databricks per Visual Studio Code. Vedere Installare l'estensione Databricks per Visual Studio Code.
  • Si dispone di un cluster Azure Databricks remoto da usare. Prendere nota del nome del cluster. Per visualizzare i cluster disponibili, nella barra laterale dell'area di lavoro di Azure Databricks fare clic su Calcolo. Vedere Ambiente di calcolo.

Passaggio 1: Creare un nuovo progetto Databricks

In questo passaggio si crea un nuovo progetto Databricks e si configura la connessione con l'area di lavoro remota di Azure Databricks.

  1. Avviare Visual Studio Code, quindi fare clic su File > Apri cartella e aprire una cartella vuota nel computer di sviluppo locale.
  2. Sulla barra laterale fare clic sull'icona del logo di Databricks . Verrà aperta l'estensione Databricks.
  3. Nella visualizzazione Configurazione fare clic su Esegui migrazione a un progetto Databricks.
  4. Viene aperto il riquadro comandi per configurare l'area di lavoro di Databricks. Per Host Databricks immettere o selezionare l'URL per area di lavoro, ad esempio https://adb-1234567890123456.7.azuredatabricks.net.
  5. Selezionare un profilo di autenticazione per il progetto. Si veda Configurazione dell'autenticazione per l'estensione Databricks per Visual Studio Code.

Passaggio 2: Aggiungere informazioni sul cluster all'estensione Databricks e avviare il cluster

  1. Con la visualizzazione Configurazione già aperta, fare clic su Seleziona un cluster o fare clic sull'icona a forma di ingranaggio (Configura cluster).

    Configurare il cluster

  2. Nel riquadro comandi selezionare il nome del cluster creato in precedenza.

  3. Fare clic sull'icona di riproduzione (Avvia cluster) se non è già stata avviata.

Passaggio 3: Creare ed eseguire codice Python

  1. Creare un file di codice Python locale: sulla barra laterale fare clic sull'icona della cartella (Explorer).

  2. Scegliere File nuovo file >dal menu principale. Assegnare al file il nome demo.py e salvarlo nella radice del progetto.

  3. Aggiungere il codice seguente al file e quindi salvarlo. Questo codice crea e visualizza il contenuto di un dataframe PySpark di base:

    from pyspark.sql import SparkSession
    from pyspark.sql.types import *
    
    spark = SparkSession.builder.getOrCreate()
    
    schema = StructType([
       StructField('CustomerID', IntegerType(), False),
       StructField('FirstName',  StringType(),  False),
       StructField('LastName',   StringType(),  False)
    ])
    
    data = [
       [ 1000, 'Mathijs', 'Oosterhout-Rijntjes' ],
       [ 1001, 'Joost',   'van Brunswijk' ],
       [ 1002, 'Stan',    'Bokenkamp' ]
    ]
    
    customers = spark.createDataFrame(data, schema)
    customers.show()
    
    # Output:
    #
    # +----------+---------+-------------------+
    # |CustomerID|FirstName|           LastName|
    # +----------+---------+-------------------+
    # |      1000|  Mathijs|Oosterhout-Rijntjes|
    # |      1001|    Joost|      van Brunswijk|
    # |      1002|     Stan|          Bokenkamp|
    # +----------+---------+-------------------+
    
  4. Fare clic sull'icona Esegui in Databricks accanto all'elenco delle schede dell'editor e quindi fare clic su Carica ed esegui file. L'output viene visualizzato nella visualizzazione Console di debug.

    Caricare ed eseguire il file dall'icona

    In alternativa, nella visualizzazione Explorer fare clic con il pulsante destro del mouse sul demo.py file e quindi scegliere Esegui in Databricks>Carica ed esegui file.

    Caricare ed eseguire il file dal menu di scelta rapida

Passaggio 4: Eseguire il codice come processo

Per eseguire demo.py come processo, fare clic sull'icona Esegui in Databricks accanto all'elenco delle schede dell'editor e quindi fare clic su Esegui file come flusso di lavoro. L'output viene visualizzato in una scheda editor separata accanto all'editor di demo.py file.

Esegui file come flusso di lavoro dall'icona

In alternativa, fare clic con il pulsante destro del mouse sul demo.py file nel pannello Esplora risorse, quindi scegliere Esegui in Databricks>Esegui file come flusso di lavoro.

Esegui file come flusso di lavoro dal menu di scelta rapida

Passaggi successivi

Ora che è stata usata correttamente l'estensione Databricks per Visual Studio Code per caricare un file Python locale ed eseguirlo in remoto, è anche possibile: