Udostępnij za pośrednictwem


MpiStep Klasa

Tworzy krok potoku usługi Azure ML w celu uruchomienia zadania MPI.

Przykład użycia narzędzia MpiStep można znaleźć w notesie https://aka.ms/pl-style-trans.

Utwórz krok potoku usługi Azure ML, aby uruchomić zadanie MPI.

PRZESTARZAŁE. Zamiast tego użyj polecenia CommandStep . Przykład można znaleźć w temacie How to run distributed training in pipelines with CommandStep (Jak uruchomić trenowanie rozproszone w potokach za pomocą poleceniaStep).

Dziedziczenie

Konstruktor

MpiStep(name=None, source_directory=None, script_name=None, arguments=None, compute_target=None, node_count=None, process_count_per_node=None, inputs=None, outputs=None, allow_reuse=True, version=None, hash_paths=None, **kwargs)

Parametry

Nazwa Opis
name
str

[Wymagane] Nazwa modułu.

Domyślna wartość: None
source_directory
str

[Wymagane] Folder zawierający skrypt języka Python, env conda i inne zasoby używane w kroku.

Domyślna wartość: None
script_name
str

[Wymagane] Nazwa skryptu języka Python względem source_directory.

Domyślna wartość: None
arguments

[Wymagane] Lista argumentów wiersza polecenia.

Domyślna wartość: None
compute_target

[Wymagane] Docelowy obiekt obliczeniowy do użycia.

Domyślna wartość: None
node_count
int

[Wymagane] Liczba węzłów w docelowym obiekcie obliczeniowym używanym do trenowania. Jeśli jest większe niż 1, zostanie uruchomione zadanie rozproszone mpi. Tylko obiekt docelowy obliczeniowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych. Wartości PipelineParameter są obsługiwane.

Domyślna wartość: None
process_count_per_node
int

[Wymagane] Liczba procesów na węzeł. Jeśli jest większe niż 1, zostanie uruchomione zadanie rozproszone mpi. Tylko obiekt docelowy obliczeniowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych. Wartości PipelineParameter są obsługiwane.

Domyślna wartość: None
inputs

Lista powiązań portów wejściowych.

Domyślna wartość: None
outputs

Lista powiązań portów wyjściowych.

Domyślna wartość: None
params
Wymagane

Słownik par name-value zarejestrowanych jako zmienne środowiskowe z "AML_PARAMETER_".

allow_reuse

Wskazuje, czy krok powinien ponownie używać poprzednich wyników po ponownym uruchomieniu z tymi samymi ustawieniami. Ponowne użycie jest domyślnie włączone. Jeśli zawartość kroku (skrypty/zależności) oraz dane wejściowe i parametry pozostają niezmienione, dane wyjściowe z poprzedniego uruchomienia tego kroku są ponownie używane. Podczas ponownego wykonywania kroku zamiast przesyłania zadania do obliczeń wyniki z poprzedniego uruchomienia są natychmiast udostępniane wszelkim kolejnym krokom. Jeśli używasz zestawów danych usługi Azure Machine Learning jako danych wejściowych, ponowne użycie zależy od tego, czy definicja zestawu danych uległa zmianie, a nie przez to, czy dane bazowe uległy zmianie.

Domyślna wartość: True
version
str

Opcjonalny tag wersji, aby oznaczyć zmianę funkcjonalności modułu.

Domyślna wartość: None
hash_paths

PRZESTARZAŁE: nie jest już potrzebne.

Lista ścieżek do skrótu podczas sprawdzania zmian w zawartości kroku. Jeśli nie wykryto żadnych zmian, potok ponownie użyje zawartości kroku z poprzedniego uruchomienia. Domyślnie zawartość elementu source_directory jest skrótem z wyjątkiem plików wymienionych w pliku .amlignore lub .gitignore.

Domyślna wartość: None
use_gpu
Wymagane

Wskazuje, czy środowisko do uruchomienia eksperymentu powinno obsługiwać procesory GPU. Jeśli prawda, domyślny obraz platformy Docker oparty na procesorze GPU będzie używany w środowisku. Jeśli wartość False, zostanie użyty obraz oparty na procesorze CPU. Domyślne obrazy platformy Docker (procesor CPU lub PROCESOR GPU) będą używane tylko wtedy, gdy custom_docker_image parametr nie jest ustawiony. To ustawienie jest używane tylko w obiektach docelowych obliczeniowych z obsługą platformy Docker.

use_docker
Wymagane

Wskazuje, czy środowisko do uruchomienia eksperymentu powinno być oparte na platformie Docker.

custom_docker_image
Wymagane
str

Nazwa obrazu platformy Docker, z którego obraz do użycia do trenowania zostanie utworzony. Jeśli nie zostanie ustawiony, zostanie użyty domyślny obraz oparty na procesorze CPU jako obraz podstawowy.

image_registry_details
Wymagane

Szczegóły rejestru obrazów platformy Docker.

user_managed
Wymagane

Wskazuje, czy usługa Azure ML ponownie używa istniejącego środowiska języka Python; Fałsz oznacza, że usługa Azure ML utworzy środowisko języka Python na podstawie specyfikacji zależności conda.

conda_packages
Wymagane

Lista ciągów reprezentujących pakiety conda do dodania do środowiska języka Python.

pip_packages
Wymagane

Lista ciągów reprezentujących pakiety pip do dodania do środowiska języka Python.

pip_requirements_file_path
Wymagane
str

Ścieżka względna do pliku tekstowego wymagań pip. Ten parametr można określić w połączeniu z parametrem pip_packages .

environment_definition
Wymagane

ŚrodowiskoDefinition dla eksperymentu. Obejmuje on zmienne środowiskowe i PythonSection oraz DockerSection. Każda opcja środowiska nie jest bezpośrednio uwidaczniona za pośrednictwem innych parametrów do konstrukcji MpiStep można ustawić przy użyciu parametru environment_definition. Jeśli ten parametr zostanie określony, pierwszeństwo będzie mieć inne parametry związane ze środowiskiem, takie jak use_gpu, custom_docker_image, conda_packages lub pip_packages i błędy zostaną zgłoszone na tych nieprawidłowych kombinacjach.

name
Wymagane
str

[Wymagane] Nazwa modułu.

source_directory
Wymagane
str

[Wymagane] Folder zawierający skrypt języka Python, env conda i inne zasoby używane w kroku.

script_name
Wymagane
str

[Wymagane] Nazwa skryptu języka Python względem source_directory.

arguments
Wymagane

[Wymagane] Lista argumentów wiersza polecenia.

compute_target
Wymagane
<xref:azureml.core.compute.AmlComputeCompute>, str

[Wymagane] Docelowy obiekt obliczeniowy do użycia.

node_count
Wymagane
int

[Wymagane] Liczba węzłów w docelowym obiekcie obliczeniowym używanym do trenowania. Jeśli jest większe niż 1, zadanie rozproszone mpi zostanie uruchomione. Tylko obiekt docelowy obliczeniowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych. Wartości PipelineParameter są obsługiwane.

process_count_per_node
Wymagane
int

[Wymagane] Liczba procesów na węzeł. Jeśli jest większe niż 1, zadanie rozproszone mpi zostanie uruchomione. Tylko obiekt docelowy obliczeniowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych. Wartości PipelineParameter są obsługiwane.

inputs
Wymagane

Lista powiązań portów wejściowych.

outputs
Wymagane

Lista powiązań portów wyjściowych.

params
Wymagane

Słownik par name-value zarejestrowanych jako zmienne środowiskowe z ">>AML_PARAMETER_<<".

allow_reuse
Wymagane

Wskazuje, czy krok powinien ponownie używać poprzednich wyników podczas ponownego uruchamiania z tymi samymi parametrami pozostaje niezmieniony, dane wyjściowe z poprzedniego przebiegu tego kroku są ponownie używane. Podczas ponownego wykonywania kroku zamiast przesyłania zadania do obliczeń wyniki z poprzedniego uruchomienia są natychmiast udostępniane wszelkim kolejnym krokom. Jeśli używasz zestawów danych usługi Azure Machine Learning jako danych wejściowych, ponowne użycie zależy od tego, czy definicja zestawu danych uległa zmianie, a nie przez to, czy dane bazowe uległy zmianie.

version
Wymagane
str

Opcjonalny tag wersji, aby oznaczyć zmianę funkcjonalności modułu

hash_paths
Wymagane

PRZESTARZAŁE: nie jest już potrzebne.

Lista ścieżek do skrótu podczas sprawdzania zmian w zawartości kroku. Jeśli nie wykryto żadnych zmian, potok ponownie użyje zawartości kroku z poprzedniego uruchomienia. Domyślnie zawartość elementu source_directory jest skrótem z wyjątkiem plików wymienionych w pliku .amlignore lub .gitignore.

use_gpu
Wymagane

Wskazuje, czy środowisko do uruchomienia eksperymentu powinno obsługiwać procesory GPU. Jeśli prawda, domyślny obraz platformy Docker oparty na procesorze GPU będzie używany w środowisku. Jeśli wartość False, zostanie użyty obraz oparty na procesorze CPU. Domyślne obrazy platformy Docker (procesor CPU lub PROCESOR GPU) będą używane tylko wtedy, gdy custom_docker_image parametr nie jest ustawiony. To ustawienie jest używane tylko w obiektach docelowych obliczeniowych z obsługą platformy Docker.

use_docker
Wymagane

Wskazuje, czy środowisko do uruchomienia eksperymentu powinno być oparte na platformie Docker. custom_docker_image (str): nazwa obrazu platformy Docker, z którego zostanie utworzony obraz do użycia dla zadania mpi. Jeśli nie zostanie ustawiony, domyślny obraz oparty na procesorze zostanie użyty jako obraz podstawowy.

custom_docker_image
Wymagane
str

Nazwa obrazu platformy Docker, z którego obraz do użycia do trenowania zostanie utworzony. Jeśli nie zostanie ustawiony, zostanie użyty domyślny obraz oparty na procesorze CPU jako obraz podstawowy.

image_registry_details
Wymagane

Szczegóły rejestru obrazów platformy Docker.

user_managed
Wymagane

Wskazuje, czy usługa Azure ML ponownie używa istniejącego środowiska języka Python; Fałsz oznacza, że usługa Azure ML utworzy środowisko języka Python na podstawie specyfikacji zależności conda.

conda_packages
Wymagane

Lista ciągów reprezentujących pakiety conda do dodania do środowiska języka Python.

pip_packages
Wymagane

Lista ciągów reprezentujących pakiety pip do dodania do środowiska języka Python.

pip_requirements_file_path
Wymagane
str

Ścieżka względna do pliku tekstowego wymagań pip. Ten parametr można określić w połączeniu z parametrem pip_packages .

environment_definition
Wymagane

ŚrodowiskoDefinition dla eksperymentu. Obejmuje on zmienne środowiskowe i PythonSection oraz DockerSection. Każda opcja środowiska nie jest bezpośrednio uwidaczniona za pośrednictwem innych parametrów do konstrukcji MpiStep można ustawić przy użyciu parametru environment_definition. Jeśli ten parametr zostanie określony, pierwszeństwo będzie mieć inne parametry związane ze środowiskiem, takie jak use_gpu, custom_docker_image, conda_packages lub pip_packages i błędy zostaną zgłoszone na tych nieprawidłowych kombinacjach.