databricks_step Módulo
Contém a funcionalidade para criar uma etapa de pipeline do Azure ML para executar um notebook do Databricks ou um script Python no DBFS.
Classes
DatabricksStep |
Cria uma etapa de pipeline do Azure ML para adicionar um notebook do DataBricks, um script Python ou um JAR como um nó. Para ver um exemplo de como usar DatabricksStep, confira o notebook https://aka.ms/pl-databricks. Crie uma etapa do Pipeline do Azure ML para adicionar um notebook do DataBricks, script Python ou JAR como um nó. Para ver um exemplo de como usar DatabricksStep, confira o notebook https://aka.ms/pl-databricks. :p aram python_script_name:[Obrigatório] O nome de um script Python em relação a Especifique exatamente um dos Se você especificar um objeto DataReference como entrada com data_reference_name=input1 e um objeto PipelineData como saída com name=output1, as entradas e saídas serão passadas para o script como parâmetros. Elas terão esta aparência e você precisará analisar os argumentos no script para acessar os caminhos de cada entrada e saída: "-input1","wasbs://test@storagename.blob.core.windows.net/test","-output1", "wasbs://test@storagename.blob.core.windows.net/b3e26de1-87a4-494d-a20f-1988d22b81a2/output1" Além disso, os seguintes parâmetros estarão disponíveis no script:
Quando você estiver executando um script Python no computador local no Databricks usando os parâmetros DatabricksStep |