MpiStep Klasa
Tworzy krok potoku usługi Azure ML w celu uruchomienia zadania MPI.
Przykład użycia narzędzia MpiStep można znaleźć w notesie https://aka.ms/pl-style-trans.
Utwórz krok potoku usługi Azure ML, aby uruchomić zadanie MPI.
PRZESTARZAŁE. Zamiast tego użyj polecenia CommandStep . Przykład można znaleźć w temacie How to run distributed training in pipelines with CommandStep (Jak uruchomić trenowanie rozproszone w potokach za pomocą poleceniaStep).
- Dziedziczenie
-
MpiStep
Konstruktor
MpiStep(name=None, source_directory=None, script_name=None, arguments=None, compute_target=None, node_count=None, process_count_per_node=None, inputs=None, outputs=None, allow_reuse=True, version=None, hash_paths=None, **kwargs)
Parametry
Nazwa | Opis |
---|---|
name
|
[Wymagane] Nazwa modułu. Domyślna wartość: None
|
source_directory
|
[Wymagane] Folder zawierający skrypt języka Python, env conda i inne zasoby używane w kroku. Domyślna wartość: None
|
script_name
|
[Wymagane] Nazwa skryptu języka Python względem Domyślna wartość: None
|
arguments
|
[Wymagane] Lista argumentów wiersza polecenia. Domyślna wartość: None
|
compute_target
|
[Wymagane] Docelowy obiekt obliczeniowy do użycia. Domyślna wartość: None
|
node_count
|
[Wymagane] Liczba węzłów w docelowym obiekcie obliczeniowym używanym do trenowania. Jeśli jest większe niż 1, zostanie uruchomione zadanie rozproszone mpi. Tylko obiekt docelowy obliczeniowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych. Wartości PipelineParameter są obsługiwane. Domyślna wartość: None
|
process_count_per_node
|
[Wymagane] Liczba procesów na węzeł. Jeśli jest większe niż 1, zostanie uruchomione zadanie rozproszone mpi. Tylko obiekt docelowy obliczeniowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych. Wartości PipelineParameter są obsługiwane. Domyślna wartość: None
|
inputs
|
list[Union[InputPortBinding, DataReference, PortDataReference, PipelineData, PipelineOutputAbstractDataset, DatasetConsumptionConfig]]
Lista powiązań portów wejściowych. Domyślna wartość: None
|
outputs
|
Lista powiązań portów wyjściowych. Domyślna wartość: None
|
params
Wymagane
|
Słownik par name-value zarejestrowanych jako zmienne środowiskowe z "AML_PARAMETER_". |
allow_reuse
|
Wskazuje, czy krok powinien ponownie używać poprzednich wyników po ponownym uruchomieniu z tymi samymi ustawieniami. Ponowne użycie jest domyślnie włączone. Jeśli zawartość kroku (skrypty/zależności) oraz dane wejściowe i parametry pozostają niezmienione, dane wyjściowe z poprzedniego uruchomienia tego kroku są ponownie używane. Podczas ponownego wykonywania kroku zamiast przesyłania zadania do obliczeń wyniki z poprzedniego uruchomienia są natychmiast udostępniane wszelkim kolejnym krokom. Jeśli używasz zestawów danych usługi Azure Machine Learning jako danych wejściowych, ponowne użycie zależy od tego, czy definicja zestawu danych uległa zmianie, a nie przez to, czy dane bazowe uległy zmianie. Domyślna wartość: True
|
version
|
Opcjonalny tag wersji, aby oznaczyć zmianę funkcjonalności modułu. Domyślna wartość: None
|
hash_paths
|
PRZESTARZAŁE: nie jest już potrzebne. Lista ścieżek do skrótu podczas sprawdzania zmian w zawartości kroku. Jeśli nie wykryto żadnych zmian, potok ponownie użyje zawartości kroku z poprzedniego uruchomienia. Domyślnie zawartość elementu Domyślna wartość: None
|
use_gpu
Wymagane
|
Wskazuje, czy środowisko do uruchomienia eksperymentu powinno obsługiwać procesory GPU.
Jeśli prawda, domyślny obraz platformy Docker oparty na procesorze GPU będzie używany w środowisku. Jeśli wartość False, zostanie użyty obraz oparty na procesorze CPU. Domyślne obrazy platformy Docker (procesor CPU lub PROCESOR GPU) będą używane tylko wtedy, gdy |
use_docker
Wymagane
|
Wskazuje, czy środowisko do uruchomienia eksperymentu powinno być oparte na platformie Docker. |
custom_docker_image
Wymagane
|
Nazwa obrazu platformy Docker, z którego obraz do użycia do trenowania zostanie utworzony. Jeśli nie zostanie ustawiony, zostanie użyty domyślny obraz oparty na procesorze CPU jako obraz podstawowy. |
image_registry_details
Wymagane
|
Szczegóły rejestru obrazów platformy Docker. |
user_managed
Wymagane
|
Wskazuje, czy usługa Azure ML ponownie używa istniejącego środowiska języka Python; Fałsz oznacza, że usługa Azure ML utworzy środowisko języka Python na podstawie specyfikacji zależności conda. |
conda_packages
Wymagane
|
Lista ciągów reprezentujących pakiety conda do dodania do środowiska języka Python. |
pip_packages
Wymagane
|
Lista ciągów reprezentujących pakiety pip do dodania do środowiska języka Python. |
pip_requirements_file_path
Wymagane
|
Ścieżka względna do pliku tekstowego wymagań pip.
Ten parametr można określić w połączeniu z parametrem |
environment_definition
Wymagane
|
ŚrodowiskoDefinition dla eksperymentu. Obejmuje on zmienne środowiskowe i PythonSection oraz DockerSection. Każda opcja środowiska nie jest bezpośrednio uwidaczniona za pośrednictwem innych parametrów do konstrukcji MpiStep można ustawić przy użyciu parametru environment_definition. Jeśli ten parametr zostanie określony, pierwszeństwo będzie mieć inne parametry związane ze środowiskiem, takie jak use_gpu, custom_docker_image, conda_packages lub pip_packages i błędy zostaną zgłoszone na tych nieprawidłowych kombinacjach. |
name
Wymagane
|
[Wymagane] Nazwa modułu. |
source_directory
Wymagane
|
[Wymagane] Folder zawierający skrypt języka Python, env conda i inne zasoby używane w kroku. |
script_name
Wymagane
|
[Wymagane] Nazwa skryptu języka Python względem |
arguments
Wymagane
|
[Wymagane] Lista argumentów wiersza polecenia. |
compute_target
Wymagane
|
<xref:azureml.core.compute.AmlComputeCompute>, str
[Wymagane] Docelowy obiekt obliczeniowy do użycia. |
node_count
Wymagane
|
[Wymagane] Liczba węzłów w docelowym obiekcie obliczeniowym używanym do trenowania. Jeśli jest większe niż 1, zadanie rozproszone mpi zostanie uruchomione. Tylko obiekt docelowy obliczeniowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych. Wartości PipelineParameter są obsługiwane. |
process_count_per_node
Wymagane
|
[Wymagane] Liczba procesów na węzeł. Jeśli jest większe niż 1, zadanie rozproszone mpi zostanie uruchomione. Tylko obiekt docelowy obliczeniowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych. Wartości PipelineParameter są obsługiwane. |
inputs
Wymagane
|
list[Union[InputPortBinding, DataReference, PortDataReference, PipelineData, PipelineOutputAbstractDataset, DatasetConsumptionConfig]]
Lista powiązań portów wejściowych. |
outputs
Wymagane
|
Lista powiązań portów wyjściowych. |
params
Wymagane
|
Słownik par name-value zarejestrowanych jako zmienne środowiskowe z ">>AML_PARAMETER_<<". |
allow_reuse
Wymagane
|
Wskazuje, czy krok powinien ponownie używać poprzednich wyników podczas ponownego uruchamiania z tymi samymi parametrami pozostaje niezmieniony, dane wyjściowe z poprzedniego przebiegu tego kroku są ponownie używane. Podczas ponownego wykonywania kroku zamiast przesyłania zadania do obliczeń wyniki z poprzedniego uruchomienia są natychmiast udostępniane wszelkim kolejnym krokom. Jeśli używasz zestawów danych usługi Azure Machine Learning jako danych wejściowych, ponowne użycie zależy od tego, czy definicja zestawu danych uległa zmianie, a nie przez to, czy dane bazowe uległy zmianie. |
version
Wymagane
|
Opcjonalny tag wersji, aby oznaczyć zmianę funkcjonalności modułu |
hash_paths
Wymagane
|
PRZESTARZAŁE: nie jest już potrzebne. Lista ścieżek do skrótu podczas sprawdzania zmian w zawartości kroku. Jeśli nie wykryto żadnych zmian, potok ponownie użyje zawartości kroku z poprzedniego uruchomienia. Domyślnie zawartość elementu |
use_gpu
Wymagane
|
Wskazuje, czy środowisko do uruchomienia eksperymentu powinno obsługiwać procesory GPU.
Jeśli prawda, domyślny obraz platformy Docker oparty na procesorze GPU będzie używany w środowisku. Jeśli wartość False, zostanie użyty obraz oparty na procesorze CPU. Domyślne obrazy platformy Docker (procesor CPU lub PROCESOR GPU) będą używane tylko wtedy, gdy |
use_docker
Wymagane
|
Wskazuje, czy środowisko do uruchomienia eksperymentu powinno być oparte na platformie Docker. custom_docker_image (str): nazwa obrazu platformy Docker, z którego zostanie utworzony obraz do użycia dla zadania mpi. Jeśli nie zostanie ustawiony, domyślny obraz oparty na procesorze zostanie użyty jako obraz podstawowy. |
custom_docker_image
Wymagane
|
Nazwa obrazu platformy Docker, z którego obraz do użycia do trenowania zostanie utworzony. Jeśli nie zostanie ustawiony, zostanie użyty domyślny obraz oparty na procesorze CPU jako obraz podstawowy. |
image_registry_details
Wymagane
|
Szczegóły rejestru obrazów platformy Docker. |
user_managed
Wymagane
|
Wskazuje, czy usługa Azure ML ponownie używa istniejącego środowiska języka Python; Fałsz oznacza, że usługa Azure ML utworzy środowisko języka Python na podstawie specyfikacji zależności conda. |
conda_packages
Wymagane
|
Lista ciągów reprezentujących pakiety conda do dodania do środowiska języka Python. |
pip_packages
Wymagane
|
Lista ciągów reprezentujących pakiety pip do dodania do środowiska języka Python. |
pip_requirements_file_path
Wymagane
|
Ścieżka względna do pliku tekstowego wymagań pip.
Ten parametr można określić w połączeniu z parametrem |
environment_definition
Wymagane
|
ŚrodowiskoDefinition dla eksperymentu. Obejmuje on zmienne środowiskowe i PythonSection oraz DockerSection. Każda opcja środowiska nie jest bezpośrednio uwidaczniona za pośrednictwem innych parametrów do konstrukcji MpiStep można ustawić przy użyciu parametru environment_definition. Jeśli ten parametr zostanie określony, pierwszeństwo będzie mieć inne parametry związane ze środowiskiem, takie jak use_gpu, custom_docker_image, conda_packages lub pip_packages i błędy zostaną zgłoszone na tych nieprawidłowych kombinacjach. |