AdlaStep Klass
Skapar ett Azure ML Pipeline-steg för att köra ett U-SQL-skript med Azure Data Lake Analytics.
Ett exempel på hur du använder den här AdlaStep finns i notebook-filen https://aka.ms/pl-adla.
Skapa ett Azure ML Pipeline-steg för att köra ett U-SQL-skript med Azure Data Lake Analytics.
- Arv
-
azureml.pipeline.core._adla_step_base._AdlaStepBaseAdlaStep
Konstruktor
AdlaStep(script_name, name=None, inputs=None, outputs=None, params=None, degree_of_parallelism=None, priority=None, runtime_version=None, compute_target=None, source_directory=None, allow_reuse=True, version=None, hash_paths=None)
Parametrar
Name | Description |
---|---|
script_name
Obligatorisk
|
[Krävs] Namnet på ett U-SQL-skript i förhållande till |
name
|
Namnet på steget. Om det är ospecificerat Standardvärde: None
|
inputs
|
En lista över indataportbindningar. Standardvärde: None
|
outputs
|
En lista över portbindningar för utdata. Standardvärde: None
|
params
|
En ordlista med namn/värde-par. Standardvärde: None
|
degree_of_parallelism
|
Graden av parallellitet som ska användas för det här jobbet. Detta måste vara större än 0. Om värdet är mindre än 0 är standardvärdet 1. Standardvärde: None
|
priority
|
Det prioritetsvärde som ska användas för det aktuella jobbet. Lägre tal har högre prioritet. Som standard har ett jobb en prioritet på 1 000. Värdet du anger måste vara större än 0. Standardvärde: None
|
runtime_version
|
Körningsversionen av Data Lake Analytics-motorn. Standardvärde: None
|
compute_target
|
[Krävs] DEN ADLA-beräkning som ska användas för det här jobbet. Standardvärde: None
|
source_directory
|
En mapp som innehåller skriptet, sammansättningar osv. Standardvärde: None
|
allow_reuse
|
Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget, i stället för att skicka jobbet för beräkning, görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändningen av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats. Standardvärde: True
|
version
|
Valfri versionstagg för att ange en ändring av funktionaliteten för steget. Standardvärde: None
|
hash_paths
|
INAKTUELL: behövs inte längre. En lista över sökvägar till hash när du söker efter ändringar i steginnehållet. Om inga ändringar har identifierats återanvänder pipelinen steginnehållet från en tidigare körning. Som standard hashas innehållet Standardvärde: None
|
script_name
Obligatorisk
|
[Krävs] Namnet på ett U-SQL-skript i förhållande till |
name
Obligatorisk
|
Namnet på steget. Om det är ospecificerat |
inputs
Obligatorisk
|
Lista över indataportbindningar |
outputs
Obligatorisk
|
list[Union[PipelineData, <xref:azureml.pipeline.core.pipeline_output_dataset.PipelineAbstractOutputDataset>, OutputPortBinding]]
En lista över portbindningar för utdata. |
params
Obligatorisk
|
En ordlista med namn/värde-par. |
degree_of_parallelism
Obligatorisk
|
Graden av parallellitet som ska användas för det här jobbet. Detta måste vara större än 0. Om värdet är mindre än 0 är standardvärdet 1. |
priority
Obligatorisk
|
Det prioritetsvärde som ska användas för det aktuella jobbet. Lägre tal har högre prioritet. Som standard har ett jobb en prioritet på 1 000. Värdet du anger måste vara större än 0. |
runtime_version
Obligatorisk
|
Körningsversionen av Data Lake Analytics-motorn. |
compute_target
Obligatorisk
|
[Krävs] DEN ADLA-beräkning som ska användas för det här jobbet. |
source_directory
Obligatorisk
|
En mapp som innehåller skriptet, sammansättningar osv. |
allow_reuse
Obligatorisk
|
Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget, i stället för att skicka jobbet för beräkning, görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändningen av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats. |
version
Obligatorisk
|
En valfri versionstagg som anger en funktionsändring för steget. |
hash_paths
Obligatorisk
|
INAKTUELL: behövs inte längre. En lista över sökvägar till hash när du söker efter ändringar i steginnehållet. Om inga ändringar har identifierats återanvänder pipelinen steginnehållet från en tidigare körning. Som standard hashas innehållet |
Kommentarer
Du kan använda @@name@@ syntax i skriptet för att referera till indata, utdata och paramer.
om namnet är namnet på en indata- eller utdataportbindning ersätts alla förekomster av @@name@@ i skriptet med den faktiska datasökvägen för en motsvarande portbindning.
om namnet matchar någon nyckel i params dict ersätts eventuella förekomster av @@name@@ med motsvarande värde i diktat.
AdlaStep fungerar endast med data som lagras i standard Data Lake Storage för Data Lake Analytics-kontot. Om data finns i en lagring som inte är standard använder du en DataTransferStep för att kopiera data till standardlagringen. Du hittar standardlagringen genom att öppna ditt Data Lake Analytics-konto i Azure Portal och sedan gå till objektet Datakällor under Inställningar i den vänstra rutan.
I följande exempel visas hur du använder AdlaStep i en Azure Machine Learning-pipeline.
adla_step = AdlaStep(
name='extract_employee_names',
script_name='sample_script.usql',
source_directory=sample_folder,
inputs=[sample_input],
outputs=[sample_output],
compute_target=adla_compute)
Fullständigt exempel är tillgängligt från https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/machine-learning-pipelines/intro-to-pipelines/aml-pipelines-use-adla-as-compute-target.ipynb
Metoder
create_node |
Skapa en nod från steget AdlaStep och lägg till den i den angivna grafen. Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet. |
create_node
Skapa en nod från steget AdlaStep och lägg till den i den angivna grafen.
Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet.
create_node(graph, default_datastore, context)
Parametrar
Name | Description |
---|---|
graph
Obligatorisk
|
Grafobjektet. |
default_datastore
Obligatorisk
|
Standarddatalagringen. |
context
Obligatorisk
|
<xref:azureml.pipeline.core._GraphContext>
Grafkontexten. |
Returer
Typ | Description |
---|---|
Nodobjektet. |