databricks_step Modul
Enthält Funktionen zum Erstellen eines Azure ML-Pipelineschritts zum Ausführen eines Databricks-Notebooks oder Python-Skripts in DBFS.
Klassen
DatabricksStep |
Erstellt einen Azure ML-Pipelineschritt, um ein DataBricks-Notebook, ein Python-Skript oder eine JAR-Datei als Knoten hinzuzufügen. Ein Beispiel für die Verwendung von DatabricksStep finden Sie im Notebook https://aka.ms/pl-databricks. Erstellen Sie einen Azure ML-Pipelineschritt, um ein DataBricks-Notebook, python-Skript oder JAR als Knoten hinzuzufügen. Ein Beispiel für die Verwendung von DatabricksStep finden Sie im Notebook https://aka.ms/pl-databricks. :p aram python_script_name:[Erforderlich] Der Name eines Python-Skripts relativ zu Geben Sie genau eines von Wenn Sie ein DataReference-Objekt als Eingabe mit data_reference_name=input1 und ein PipelineData-Objekt als Ausgabe mit name=output1 angeben, werden die Eingaben und Ausgaben als Parameter an das Skript übergeben. So sehen sie aus, und Sie müssen die Argumente in Ihrem Skript analysieren, um auf die Pfade jeder Eingabe und Ausgabe zu zugreifen: "-input1", "wasbs://test@storagename.blob.core.windows.net/test", "-output1", "wasbs://test@storagename.blob.core.windows.net/b3e26de1-87a4-494d-a20f-1988d22b81a2/output1" Darüber hinaus sind die folgenden Parameter im Skript verfügbar:
Wenn Sie ein Python-Skript von Ihrem lokalen Computer auf Databricks mithilfe der DatabricksStep-Parameter |