AzureBatchStep Klass
Skapar ett Azure ML Pipeline-steg för att skicka jobb till Azure Batch.
Obs! Det här steget stöder inte uppladdning/nedladdning av kataloger och deras innehåll.
Ett exempel på hur du använder AzureBatchStep finns i notebook-filen https://aka.ms/pl-azbatch.
Skapa ett Azure ML Pipeline-steg för att skicka jobb till Azure Batch.
- Arv
-
azureml.pipeline.core._azurebatch_step_base._AzureBatchStepBaseAzureBatchStep
Konstruktor
AzureBatchStep(name, create_pool=False, pool_id=None, delete_batch_job_after_finish=True, delete_batch_pool_after_finish=False, is_positive_exit_code_failure=True, vm_image_urn='urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter', run_task_as_admin=False, target_compute_nodes=1, vm_size='standard_d1_v2', source_directory=None, executable=None, arguments=None, inputs=None, outputs=None, allow_reuse=True, compute_target=None, version=None)
Parametrar
Name | Description |
---|---|
name
Obligatorisk
|
[Krävs] Namnet på steget. |
create_pool
|
Anger om du vill skapa poolen innan du kör jobben. Standardvärde: False
|
pool_id
|
[Krävs] ID:t för poolen där jobbet körs. ID:t kan vara en befintlig pool eller en som skapas när jobbet skickas. Standardvärde: None
|
delete_batch_job_after_finish
|
Anger om jobbet ska tas bort från Batch-kontot när det är klart. Standardvärde: True
|
delete_batch_pool_after_finish
|
Anger om poolen ska tas bort när jobbet har slutförts. Standardvärde: False
|
is_positive_exit_code_failure
|
Anger om jobbet misslyckas om aktiviteten finns med en positiv kod. Standardvärde: True
|
vm_image_urn
|
Om Standardvärde: urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter
|
run_task_as_admin
|
Anger om uppgiften ska köras med administratörsbehörighet. Standardvärde: False
|
target_compute_nodes
|
Om Standardvärde: 1
|
vm_size
|
Om Standardvärde: standard_d1_v2
|
source_directory
|
En lokal mapp som innehåller modulens binärfiler, körbara filer, sammansättningar osv. Standardvärde: None
|
executable
|
[Krävs] Namnet på det kommando/den körbara fil som ska köras som en del av jobbet. Standardvärde: None
|
arguments
|
Argument för kommandot/den körbara filen. Standardvärde: None
|
inputs
|
En lista över indataportbindningar. Innan jobbet körs skapas en mapp för varje indata. Filerna för varje indata kopieras från lagringen till respektive mapp på beräkningsnoden. Om indatanamnet till exempel är input1 och den relativa sökvägen i lagringen är some/relative/path/that/can/be/really/long/inputfile.txtblir filsökvägen i beräkningen: ./input1/inputfile.txt. När indatanamnet är längre än 32 tecken trunkeras det och läggs till med ett unikt suffix så att mappnamnet kan skapas på beräkningsmålet. Standardvärde: None
|
outputs
|
En lista över portbindningar för utdata. Precis som indata skapas en mapp för varje utdata innan jobbet körs. Mappnamnet är samma som utdatanamnet. Antagandet är att jobbet kommer att placera utdata i den mappen. Standardvärde: None
|
allow_reuse
|
Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg i stället för att skicka jobbet för beräkning. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändning av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats. Standardvärde: True
|
compute_target
|
[Krävs] En BatchCompute-beräkning där jobbet körs. Standardvärde: None
|
version
|
En valfri versionstagg som anger en funktionsändring för modulen. Standardvärde: None
|
name
Obligatorisk
|
[Krävs] Namnet på steget. |
create_pool
Obligatorisk
|
Anger om du vill skapa poolen innan du kör jobben. |
pool_id
Obligatorisk
|
[Krävs] ID:t för poolen där jobbet körs. ID:t kan vara en befintlig pool eller en som skapas när jobbet skickas. |
delete_batch_job_after_finish
Obligatorisk
|
Anger om jobbet ska tas bort från Batch-kontot när det är klart. |
delete_batch_pool_after_finish
Obligatorisk
|
Anger om poolen ska tas bort när jobbet har slutförts. |
is_positive_exit_code_failure
Obligatorisk
|
Anger om jobbet misslyckas om aktiviteten finns med en positiv kod. |
vm_image_urn
Obligatorisk
|
Om |
run_task_as_admin
Obligatorisk
|
Anger om uppgiften ska köras med administratörsbehörighet. |
target_compute_nodes
Obligatorisk
|
Om |
vm_size
Obligatorisk
|
Om |
source_directory
Obligatorisk
|
En lokal mapp som innehåller modulens binärfiler, körbara filer, sammansättningar osv. |
executable
Obligatorisk
|
[Krävs] Namnet på det kommando/den körbara fil som ska köras som en del av jobbet. |
arguments
Obligatorisk
|
Argument för kommandot/den körbara filen. |
inputs
Obligatorisk
|
En lista över indataportbindningar. Innan jobbet körs skapas en mapp för varje indata. Filerna för varje indata kopieras från lagringen till respektive mapp på beräkningsnoden. Om indatanamnet till exempel är input1 och den relativa sökvägen i lagringen är some/relative/path/that/can/be/really/long/inputfile.txtblir filsökvägen i beräkningen: ./input1/inputfile.txt. Om indatanamnet är längre än 32 tecken trunkeras det och läggs till med ett unikt suffix, så att mappnamnet kan skapas på beräkningen. |
outputs
Obligatorisk
|
En lista över portbindningar för utdata. Precis som indata skapas en mapp för varje utdata innan jobbet körs. Mappnamnet är samma som utdatanamnet. Antagandet är att jobbet kommer att ha utdata till den mappen. |
allow_reuse
Obligatorisk
|
Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg i stället för att skicka jobbet för beräkning. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändning av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats. |
compute_target
Obligatorisk
|
[Krävs] En BatchCompute-beräkning där jobbet körs. |
version
Obligatorisk
|
En valfri versionstagg som anger en funktionsändring för modulen. |
Kommentarer
I följande exempel visas hur du använder AzureBatchStep i en Azure Machine Learning-pipeline.
step = AzureBatchStep(
name="Azure Batch Job",
pool_id="MyPoolName", # Replace this with the pool name of your choice
inputs=[testdata],
outputs=[outputdata],
executable="azurebatch.cmd",
arguments=[testdata, outputdata],
compute_target=batch_compute,
source_directory=binaries_folder,
)
Fullständigt exempel är tillgängligt från https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/machine-learning-pipelines/intro-to-pipelines/aml-pipelines-how-to-use-azurebatch-to-run-a-windows-executable.ipynb
Metoder
create_node |
Skapa en nod från Steget AzureBatch och lägg till den i den angivna grafen. Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet. |
create_node
Skapa en nod från Steget AzureBatch och lägg till den i den angivna grafen.
Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet.
create_node(graph, default_datastore, context)
Parametrar
Name | Description |
---|---|
graph
Obligatorisk
|
Grafobjektet som noden ska läggas till i. |
default_datastore
Obligatorisk
|
Standarddatalager. |
context
Obligatorisk
|
<xref:azureml.pipeline.core._GraphContext>
Grafkontexten. |
Returer
Typ | Description |
---|---|
Den skapade noden. |