Schedule Klasa
Definiuje harmonogram przesyłania potoku.
Po opublikowaniu potoku harmonogram może służyć do przesyłania potoku w określonym interwale lub w przypadku wykrycia zmian w lokalizacji magazynu obiektów blob.
Zainicjuj harmonogram.
- Dziedziczenie
-
builtins.objectSchedule
Konstruktor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parametry
Nazwa | Opis |
---|---|
workspace
Wymagane
|
Obiekt obszaru roboczego, do którego będzie należeć ten harmonogram. |
id
Wymagane
|
Identyfikator harmonogramu. |
name
Wymagane
|
Nazwa harmonogramu. |
description
Wymagane
|
Opis harmonogramu. |
pipeline_id
Wymagane
|
Identyfikator potoku, który zostanie przesłany. |
status
Wymagane
|
Stan harmonogramu, "Aktywny" lub "Wyłączony". |
recurrence
Wymagane
|
Cykl harmonogramu dla potoku. |
datastore_name
Wymagane
|
Nazwa magazynu danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: 1) Magazyny danych sieci wirtualnej nie są obsługiwane. 2) Typ uwierzytelniania magazynu danych powinien być ustawiony na "Klucz konta". |
polling_interval
Wymagane
|
Jak długo, w minutach, między sondowaniem zmodyfikowanych/dodanych obiektów blob. |
data_path_parameter_name
Wymagane
|
Nazwa parametru potoku ścieżki danych do ustawienia ze zmienioną ścieżką obiektu blob. |
continue_on_step_failure
Wymagane
|
Czy kontynuować wykonywanie innych kroków w przesłanym potokuRun, jeśli krok zakończy się niepowodzeniem. Jeśli zostanie podana wartość, spowoduje to zastąpienie ustawienia continue_on_step_failure dla potoku. |
path_on_datastore
Wymagane
|
Opcjonalny. Ścieżka w magazynie danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: path_on_datastore będzie znajdować się w kontenerze magazynu danych, więc rzeczywista ścieżka, którą będzie monitorować harmonogram, będzie kontener/path_on_datastore. Jeśli nie, kontener magazynu danych jest monitorowany. Dodatki/modyfikacje wprowadzone w podfolderze path_on_datastore nie są monitorowane. Obsługiwane tylko w przypadku harmonogramów magazynu danych. |
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Dostawca harmonogramu. Domyślna wartość: None
|
workspace
Wymagane
|
Obiekt obszaru roboczego, do którego będzie należeć ten harmonogram. |
id
Wymagane
|
Identyfikator harmonogramu. |
name
Wymagane
|
Nazwa harmonogramu. |
description
Wymagane
|
Opis harmonogramu. |
pipeline_id
Wymagane
|
Identyfikator potoku, który zostanie przesłany. |
status
Wymagane
|
Stan harmonogramu, "Aktywny" lub "Wyłączony". |
recurrence
Wymagane
|
Cykl harmonogramu potoku. |
datastore_name
Wymagane
|
Nazwa magazynu danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: magazyny danych sieci wirtualnej nie są obsługiwane. |
polling_interval
Wymagane
|
Jak długo, w minutach, między sondowaniem zmodyfikowanych/dodanych obiektów blob. |
data_path_parameter_name
Wymagane
|
Nazwa parametru potoku ścieżki danych do ustawienia ze zmienioną ścieżką obiektu blob. |
continue_on_step_failure
Wymagane
|
Czy kontynuować wykonywanie innych kroków w przesłanym potokuRun, jeśli krok zakończy się niepowodzeniem. Jeśli zostanie podana wartość, spowoduje to zastąpienie ustawienia continue_on_step_failure dla potoku. |
path_on_datastore
Wymagane
|
Opcjonalny. Ścieżka w magazynie danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: path_on_datastore będzie znajdować się w kontenerze magazynu danych, więc rzeczywista ścieżka, którą będzie monitorować harmonogram, będzie kontener/path_on_datastore. Jeśli nie, kontener magazynu danych jest monitorowany. Dodatki/modyfikacje wprowadzone w podfolderze path_on_datastore nie są monitorowane. Obsługiwane tylko w przypadku harmonogramów magazynu danych. |
_schedule_provider
Wymagane
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Dostawca harmonogramu. |
pipeline_endpoint_id
|
Identyfikator punktu końcowego potoku, który zostanie przesłany. Domyślna wartość: None
|
Uwagi
Obsługiwane są dwa typy harmonogramów. Pierwszy używa cyklu czasu do przesłania potoku zgodnie z danym harmonogramem. Drugi monitoruje AzureBlobDatastore obiekt dla dodanych lub zmodyfikowanych obiektów blob i przesyła potok po wykryciu zmian.
Aby utworzyć harmonogram, który będzie przesyłać potok zgodnie z harmonogramem cyklicznym, użyj elementu ScheduleRecurrence podczas tworzenia harmonogramu.
Funkcja ScheduleRecurrence jest używana podczas tworzenia harmonogramu dla potoku w następujący sposób:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Ten harmonogram będzie przesyłany co PublishedPipeline 12 godzin. Przesłany potok zostanie utworzony w obszarze Eksperyment o nazwie "helloworld".
Aby utworzyć harmonogram, który spowoduje wyzwolenie elementu PipelineRuns w przypadku modyfikacji lokalizacji magazynu obiektów blob, określ magazyn danych i powiązane informacje o danych podczas tworzenia harmonogramu.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Należy pamiętać, że parametry polling_interval i path_on_datastore są opcjonalne. Polling_interval określa, jak często sondować pod kątem modyfikacji magazynu danych, a domyślnie jest to 5 minut. path_on_datastore można użyć do określenia folderu w magazynie danych, który ma być monitorowany pod kątem zmian. Jeśli brak, kontener magazynu danych jest monitorowany. Uwaga: dodatki/modyfikacje obiektów blob w podfolderach path_on_datastore lub kontenera magazynu danych (jeśli nie określono path_on_datastore) nie zostaną wykryte.
Ponadto, jeśli potok został skonstruowany w celu DataPathPipelineParameter opisania danych wejściowych kroku, użyj parametru data_path_parameter_name podczas tworzenia harmonogramu wyzwalanego przez magazyn danych, aby ustawić dane wejściowe na zmieniony plik po przesłaniu potoku zgodnie z harmonogramem.
W poniższym przykładzie, gdy harmonogram wyzwoli element PipelineRun, wartość parametru PipelineParameter "input_data" zostanie ustawiona jako plik, który został zmodyfikowany/dodany:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Aby uzyskać więcej informacji na temat harmonogramów, zobacz: https://aka.ms/pl-schedule.
Metody
create |
Utwórz harmonogram dla potoku. Określ cykl dla harmonogramu opartego na czasie lub określ magazyn danych, (opcjonalnie) polling_interval i (opcjonalnie) data_path_parameter_name, aby utworzyć harmonogram, który będzie monitorować lokalizację magazynu danych pod kątem modyfikacji/dodawania. |
create_for_pipeline_endpoint |
Utwórz harmonogram dla punktu końcowego potoku. Określ cykl dla harmonogramu opartego na czasie lub określ magazyn danych, (opcjonalnie) polling_interval i (opcjonalnie) data_path_parameter_name, aby utworzyć harmonogram, który będzie monitorować lokalizację magazynu danych pod kątem modyfikacji/dodawania. |
disable |
Ustaw harmonogram na wartość "Wyłączone" i jest niedostępny do uruchomienia. |
enable |
Ustaw harmonogram na "Aktywny" i dostępny do uruchomienia. |
get |
Pobierz harmonogram z danym identyfikatorem. |
get_all |
Pobierz wszystkie harmonogramy w bieżącym obszarze roboczym. PRZESTARZAŁE: Ta metoda jest przestarzała na rzecz list metody . |
get_last_pipeline_run |
Pobierz ostatnie uruchomienie potoku przesłane zgodnie z harmonogramem. Zwraca wartość Brak, jeśli nie przesłano żadnych przebiegów. |
get_pipeline_runs |
Pobierz uruchomienia potoku wygenerowane na podstawie harmonogramu. |
get_schedules_for_pipeline_endpoint_id |
Pobierz wszystkie harmonogramy dla danego identyfikatora punktu końcowego potoku. |
get_schedules_for_pipeline_id |
Pobierz wszystkie harmonogramy dla danego identyfikatora potoku. |
list |
Pobierz wszystkie harmonogramy w bieżącym obszarze roboczym. |
load_yaml |
Załaduj i odczytaj plik YAML, aby uzyskać parametry harmonogramu. Plik YAML to jeszcze jeden sposób przekazywania parametrów harmonogramu w celu utworzenia harmonogramu. |
update |
Zaktualizuj harmonogram. |
create
Utwórz harmonogram dla potoku.
Określ cykl dla harmonogramu opartego na czasie lub określ magazyn danych, (opcjonalnie) polling_interval i (opcjonalnie) data_path_parameter_name, aby utworzyć harmonogram, który będzie monitorować lokalizację magazynu danych pod kątem modyfikacji/dodawania.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametry
Nazwa | Opis |
---|---|
workspace
Wymagane
|
Obiekt obszaru roboczego, do którego będzie należeć ten harmonogram. |
name
Wymagane
|
Nazwa harmonogramu. |
pipeline_id
Wymagane
|
Identyfikator potoku, który zostanie przesłany. |
experiment_name
Wymagane
|
Nazwa eksperymentu, na który zostanie przesłany harmonogram. |
recurrence
|
Cykl harmonogramu potoku. Domyślna wartość: None
|
description
|
Opis harmonogramu. Domyślna wartość: None
|
pipeline_parameters
|
Słownik parametrów do przypisywania nowych wartości {param name, param value} Domyślna wartość: None
|
wait_for_provisioning
|
Czy poczekać na ukończenie aprowizacji harmonogramu. Domyślna wartość: False
|
wait_timeout
|
Liczba sekund oczekiwania przed upływem limitu czasu. Domyślna wartość: 3600
|
datastore
|
Magazyn danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: magazyny danych sieci wirtualnej nie są obsługiwane. Nie można używać z cyklem. Domyślna wartość: None
|
polling_interval
|
Jak długo, w minutach, między sondowaniem zmodyfikowanych/dodanych obiektów blob. Wartość domyślna to 5 minut. Obsługiwane tylko w przypadku harmonogramów magazynu danych. Domyślna wartość: 5
|
data_path_parameter_name
|
Nazwa parametru potoku ścieżki danych do ustawienia ze zmienioną ścieżką obiektu blob. Obsługiwane tylko w przypadku harmonogramów magazynu danych. Domyślna wartość: None
|
continue_on_step_failure
|
Czy kontynuować wykonywanie innych kroków w przesłanym potokuRun, jeśli krok zakończy się niepowodzeniem. Jeśli zostanie podana wartość, spowoduje to zastąpienie ustawienia continue_on_step_failure dla potoku. Domyślna wartość: None
|
path_on_datastore
|
Opcjonalny. Ścieżka w magazynie danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: path_on_datastore będzie znajdować się w kontenerze dla magazynu danych, więc rzeczywista ścieżka, którą będzie monitorować harmonogram, będzie kontenerem/path_on_datastore. Jeśli nie, kontener magazynu danych jest monitorowany. Dodatki/modyfikacje wprowadzone w podfolderze path_on_datastore nie są monitorowane. Obsługiwane tylko w przypadku harmonogramów magazynu danych. Domyślna wartość: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Dostawca przepływu pracy. Domyślna wartość: None
|
_service_endpoint
|
Punkt końcowy usługi. Domyślna wartość: None
|
Zwraca
Typ | Opis |
---|---|
Utworzony harmonogram. |
create_for_pipeline_endpoint
Utwórz harmonogram dla punktu końcowego potoku.
Określ cykl dla harmonogramu opartego na czasie lub określ magazyn danych, (opcjonalnie) polling_interval i (opcjonalnie) data_path_parameter_name, aby utworzyć harmonogram, który będzie monitorować lokalizację magazynu danych pod kątem modyfikacji/dodawania.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametry
Nazwa | Opis |
---|---|
workspace
Wymagane
|
Obiekt obszaru roboczego, do którego będzie należeć ten harmonogram. |
name
Wymagane
|
Nazwa harmonogramu. |
pipeline_endpoint_id
Wymagane
|
Identyfikator punktu końcowego potoku, który zostanie przesłany. |
experiment_name
Wymagane
|
Nazwa eksperymentu, na który zostanie przesłany harmonogram. |
recurrence
|
Cykl harmonogramu potoku. Domyślna wartość: None
|
description
|
Opis harmonogramu. Domyślna wartość: None
|
pipeline_parameters
|
Słownik parametrów do przypisywania nowych wartości {param name, param value} Domyślna wartość: None
|
wait_for_provisioning
|
Czy poczekać na ukończenie aprowizacji harmonogramu. Domyślna wartość: False
|
wait_timeout
|
Liczba sekund oczekiwania przed przekroczeniem limitu czasu. Domyślna wartość: 3600
|
datastore
|
Magazyn danych do monitorowania pod kątem zmodyfikowanych/dodanych obiektów blob. Uwaga: magazyny danych sieci wirtualnej nie są obsługiwane. Nie można używać z cyklem. Domyślna wartość: None
|
polling_interval
|
Jak długo, w minutach, między sondowaniem pod kątem zmodyfikowanych/dodanych obiektów blob. Wartość domyślna to 5 minut. Obsługiwane tylko w przypadku harmonogramów magazynu danych. Domyślna wartość: 5
|
data_path_parameter_name
|
Nazwa parametru potoku ścieżki danych do ustawienia ze zmienioną ścieżką obiektu blob. Obsługiwane tylko w przypadku harmonogramów magazynu danych. Domyślna wartość: None
|
continue_on_step_failure
|
Czy kontynuować wykonywanie innych kroków w przesłanym potokuUruchom, jeśli krok zakończy się niepowodzeniem. Jeśli zostanie podana wartość , spowoduje to zastąpienie ustawienia continue_on_step_failure dla potoku. Domyślna wartość: None
|
path_on_datastore
|
Opcjonalny. Ścieżka w magazynie danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: path_on_datastore będzie znajdować się w kontenerze dla magazynu danych, więc rzeczywista ścieżka, którą będzie monitorować harmonogram, będzie kontenerem/path_on_datastore. Jeśli nie, kontener magazynu danych jest monitorowany. Dodatki/modyfikacje wprowadzone w podfolderze path_on_datastore nie są monitorowane. Obsługiwane tylko w przypadku harmonogramów magazynu danych. Domyślna wartość: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Dostawca przepływu pracy. Domyślna wartość: None
|
_service_endpoint
|
Punkt końcowy usługi. Domyślna wartość: None
|
Zwraca
Typ | Opis |
---|---|
Utworzony harmonogram. |
disable
Ustaw harmonogram na wartość "Wyłączone" i jest niedostępny do uruchomienia.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parametry
Nazwa | Opis |
---|---|
wait_for_provisioning
|
Czy poczekać na ukończenie aprowizacji harmonogramu. Domyślna wartość: False
|
wait_timeout
|
Liczba sekund oczekiwania przed przekroczeniem limitu czasu. Domyślna wartość: 3600
|
enable
Ustaw harmonogram na "Aktywny" i dostępny do uruchomienia.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parametry
Nazwa | Opis |
---|---|
wait_for_provisioning
|
Czy poczekać na ukończenie aprowizacji harmonogramu. Domyślna wartość: False
|
wait_timeout
|
Liczba sekund oczekiwania przed przekroczeniem limitu czasu. Domyślna wartość: 3600
|
get
Pobierz harmonogram z danym identyfikatorem.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parametry
Nazwa | Opis |
---|---|
workspace
Wymagane
|
Obszar roboczy, w ramach którego został utworzony harmonogram. |
id
Wymagane
|
Identyfikator harmonogramu. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Dostawca przepływu pracy. Domyślna wartość: None
|
_service_endpoint
|
Punkt końcowy usługi. Domyślna wartość: None
|
Zwraca
Typ | Opis |
---|---|
Obiekt harmonogramu |
get_all
Pobierz wszystkie harmonogramy w bieżącym obszarze roboczym.
PRZESTARZAŁE: Ta metoda jest przestarzała na rzecz list metody .
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametry
Nazwa | Opis |
---|---|
workspace
Wymagane
|
Obszar roboczy. |
active_only
|
Jeśli wartość true, zwraca tylko harmonogramy, które są obecnie aktywne. Ma zastosowanie tylko wtedy, gdy nie podano identyfikatora potoku. Domyślna wartość: True
|
pipeline_id
|
Jeśli zostanie podana, zwracaj tylko harmonogramy dla potoku z danym identyfikatorem. Domyślna wartość: None
|
pipeline_endpoint_id
|
Jeśli zostanie podana, zwracaj tylko harmonogramy dla punktu końcowego potoku z danym identyfikatorem. Domyślna wartość: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Dostawca przepływu pracy. Domyślna wartość: None
|
_service_endpoint
|
Punkt końcowy usługi. Domyślna wartość: None
|
Zwraca
Typ | Opis |
---|---|
Lista .Schedule |
get_last_pipeline_run
Pobierz ostatnie uruchomienie potoku przesłane zgodnie z harmonogramem. Zwraca wartość Brak, jeśli nie przesłano żadnych przebiegów.
get_last_pipeline_run()
Zwraca
Typ | Opis |
---|---|
Ostatnie uruchomienie potoku. |
get_pipeline_runs
Pobierz uruchomienia potoku wygenerowane na podstawie harmonogramu.
get_pipeline_runs()
Zwraca
Typ | Opis |
---|---|
Lista .PipelineRun |
get_schedules_for_pipeline_endpoint_id
Pobierz wszystkie harmonogramy dla danego identyfikatora punktu końcowego potoku.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parametry
Nazwa | Opis |
---|---|
workspace
Wymagane
|
Obszar roboczy. |
pipeline_endpoint_id
Wymagane
|
Identyfikator punktu końcowego potoku. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Dostawca przepływu pracy. Domyślna wartość: None
|
_service_endpoint
|
Punkt końcowy usługi. Domyślna wartość: None
|
Zwraca
Typ | Opis |
---|---|
Lista .Schedule |
get_schedules_for_pipeline_id
Pobierz wszystkie harmonogramy dla danego identyfikatora potoku.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parametry
Nazwa | Opis |
---|---|
workspace
Wymagane
|
Obszar roboczy. |
pipeline_id
Wymagane
|
Identyfikator potoku. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Dostawca przepływu pracy. Domyślna wartość: None
|
_service_endpoint
|
Punkt końcowy usługi. Domyślna wartość: None
|
Zwraca
Typ | Opis |
---|---|
Lista .Schedule |
list
Pobierz wszystkie harmonogramy w bieżącym obszarze roboczym.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametry
Nazwa | Opis |
---|---|
workspace
Wymagane
|
Obszar roboczy. |
active_only
|
Jeśli wartość true, zwraca tylko harmonogramy, które są obecnie aktywne. Ma zastosowanie tylko wtedy, gdy nie podano identyfikatora potoku. Domyślna wartość: True
|
pipeline_id
|
Jeśli zostanie podana, zwracaj tylko harmonogramy dla potoku z danym identyfikatorem. Domyślna wartość: None
|
pipeline_endpoint_id
|
Jeśli zostanie podana, zwracaj tylko harmonogramy dla punktu końcowego potoku z danym identyfikatorem. Domyślna wartość: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Dostawca przepływu pracy. Domyślna wartość: None
|
_service_endpoint
|
Punkt końcowy usługi. Domyślna wartość: None
|
Zwraca
Typ | Opis |
---|---|
Lista .Schedule |
load_yaml
Załaduj i odczytaj plik YAML, aby uzyskać parametry harmonogramu.
Plik YAML to jeszcze jeden sposób przekazywania parametrów harmonogramu w celu utworzenia harmonogramu.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parametry
Nazwa | Opis |
---|---|
workspace
Wymagane
|
Obszar roboczy. |
filename
Wymagane
|
Nazwa pliku YAML z lokalizacją. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Dostawca przepływu pracy. Domyślna wartość: None
|
_service_endpoint
|
Punkt końcowy usługi. Domyślna wartość: None
|
Zwraca
Typ | Opis |
---|---|
Słownik parametrów Schedule i wartości. |
Uwagi
W przypadku harmonogramów obsługiwane są dwa typy YAML. Pierwsze operacje odczytu i ładowania informacji o cyklu dla harmonogramu tworzenia w celu wyzwolenia potoku. Drugi odczytuje i ładuje informacje magazynu danych na potrzeby tworzenia harmonogramu w celu wyzwolenia potoku.
Przykład tworzenia harmonogramu, który będzie przesyłał potok w ramach cyklu w następujący sposób:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Przykładowy plik YAML test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Przykład tworzenia harmonogramu, który będzie przesyłać potok w magazynie danych w następujący sposób:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Zaktualizuj harmonogram.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parametry
Nazwa | Opis |
---|---|
name
|
Nowa nazwa harmonogramu. Domyślna wartość: None
|
recurrence
|
Nowy harmonogram cyklu potoku. Domyślna wartość: None
|
description
|
Nowy opis harmonogramu. Domyślna wartość: None
|
pipeline_parameters
|
Słownik parametrów do przypisywania nowych wartości {param name, param value}. Domyślna wartość: None
|
status
|
Nowy stan harmonogramu: "Aktywne" lub "Wyłączone". Domyślna wartość: None
|
wait_for_provisioning
|
Czy poczekać na ukończenie aprowizacji harmonogramu. Domyślna wartość: False
|
wait_timeout
|
Liczba sekund oczekiwania przed przekroczeniem limitu czasu. Domyślna wartość: 3600
|
datastore
|
Magazyn danych do monitorowania pod kątem zmodyfikowanych/dodanych obiektów blob. Uwaga: magazyny danych sieci wirtualnej nie są obsługiwane. Domyślna wartość: None
|
polling_interval
|
Jak długo, w minutach, między sondowaniem pod kątem zmodyfikowanych/dodanych obiektów blob. Wartość domyślna to 5 minut. Domyślna wartość: None
|
data_path_parameter_name
|
Nazwa parametru potoku ścieżki danych do ustawienia ze zmienioną ścieżką obiektu blob. Domyślna wartość: None
|
continue_on_step_failure
|
Czy kontynuować wykonywanie innych kroków w przesłanym potokuUruchom, jeśli krok zakończy się niepowodzeniem. Jeśli zostanie podana wartość , spowoduje to zastąpienie ustawienia continue_on_step_failure dla potoku. Domyślna wartość: None
|
path_on_datastore
|
Opcjonalny. Ścieżka w magazynie danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: path_on_datastore będzie znajdować się w kontenerze dla magazynu danych, więc rzeczywista ścieżka, którą będzie monitorować harmonogram, będzie kontenerem/path_on_datastore. Jeśli nie, kontener magazynu danych jest monitorowany. Dodatki/modyfikacje wprowadzone w podfolderze path_on_datastore nie są monitorowane. Obsługiwane tylko w przypadku harmonogramów magazynu danych. Domyślna wartość: None
|
Atrybuty
continue_on_step_failure
Pobierz wartość continue_on_step_failure
ustawienia.
Zwraca
Typ | Opis |
---|---|
Wartość |
data_path_parameter_name
Pobierz nazwę parametru potoku ścieżki danych, który ma zostać ustawiony przy użyciu zmienionej ścieżki obiektu blob.
Zwraca
Typ | Opis |
---|---|
Nazwa parametru ścieżki danych. |
datastore_name
Pobierz nazwę magazynu danych używanego dla harmonogramu.
Zwraca
Typ | Opis |
---|---|
Nazwa magazynu danych. |
description
id
name
path_on_datastore
Pobierz ścieżkę do magazynu danych, który monitoruje harmonogram.
Zwraca
Typ | Opis |
---|---|
Ścieżka w magazynie danych. |
pipeline_endpoint_id
Pobierz identyfikator punktu końcowego potoku, który przesyła harmonogram.
Zwraca
Typ | Opis |
---|---|
Identyfikator. |
pipeline_id
polling_interval
Uzyskaj czas między sondowaniem zmodyfikowanych/dodanych obiektów blob w ciągu kilku minut.
Zwraca
Typ | Opis |
---|---|
Interwał sondowania. |