Schedule Classe
Definisce una pianificazione in cui inviare una pipeline.
Dopo la pubblicazione di una pipeline, è possibile usare una pianificazione per inviare la pipeline a un intervallo specificato o quando vengono rilevate modifiche a un percorso di archiviazione BLOB.
Inizializzare la pianificazione.
- Ereditarietà
-
builtins.objectSchedule
Costruttore
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parametri
Nome | Descrizione |
---|---|
workspace
Necessario
|
L'oggetto area di lavoro a cui appartiene questa pianificazione. |
id
Necessario
|
ID della pianificazione. |
name
Necessario
|
Nome della pianificazione. |
description
Necessario
|
Descrizione della pianificazione. |
pipeline_id
Necessario
|
L'ID della pipeline in cui verrà inviato la pianificazione. |
status
Necessario
|
Stato della pianificazione, "Attivo" o "Disabilitato". |
recurrence
Necessario
|
Ricorrenza della pianificazione per la pipeline. |
datastore_name
Necessario
|
Nome dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: 1) Gli archivi dati della rete virtuale non sono supportati. 2) Il tipo di autenticazione per l'archivio dati deve essere impostato su "Chiave account". |
polling_interval
Necessario
|
Tempo, in minuti, tra il polling per i BLOB modificati o aggiunti. |
data_path_parameter_name
Necessario
|
Nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato. |
continue_on_step_failure
Necessario
|
Se continuare l'esecuzione di altri passaggi nella pipelinerun inviata se un passaggio ha esito negativo. Se specificato, questa impostazione eseguirà l'override dell'impostazione di continue_on_step_failure per la pipeline. |
path_on_datastore
Necessario
|
facoltativo. Percorso dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: la path_on_datastore sarà nel contenitore per l'archivio dati, quindi il percorso effettivo verrà monitorato sarà contenitore/path_on_datastore. In caso contrario, il contenitore dell'archivio dati viene monitorato. Le aggiunte o le modifiche apportate in una sottocartella del path_on_datastore non vengono monitorate. Supportato solo per le pianificazioni di DataStore. |
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Provider di pianificazione. Valore predefinito: None
|
workspace
Necessario
|
L'oggetto area di lavoro a cui appartiene questa pianificazione. |
id
Necessario
|
ID della pianificazione. |
name
Necessario
|
Nome della pianificazione. |
description
Necessario
|
Descrizione della pianificazione. |
pipeline_id
Necessario
|
L'ID della pipeline in cui verrà inviato la pianificazione. |
status
Necessario
|
Stato della pianificazione, "Attivo" o "Disabilitato". |
recurrence
Necessario
|
Ricorrenza della pianificazione della pipeline. |
datastore_name
Necessario
|
Nome dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: gli archivi dati della rete virtuale non sono supportati. |
polling_interval
Necessario
|
Tempo, in minuti, tra il polling per i BLOB modificati o aggiunti. |
data_path_parameter_name
Necessario
|
Nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato. |
continue_on_step_failure
Necessario
|
Se continuare l'esecuzione di altri passaggi nella pipelinerun inviata se un passaggio ha esito negativo. Se specificato, questa impostazione eseguirà l'override dell'impostazione di continue_on_step_failure per la pipeline. |
path_on_datastore
Necessario
|
facoltativo. Percorso dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: la path_on_datastore sarà nel contenitore per l'archivio dati, quindi il percorso effettivo verrà monitorato sarà contenitore/path_on_datastore. In caso contrario, il contenitore dell'archivio dati viene monitorato. Le aggiunte o le modifiche apportate in una sottocartella del path_on_datastore non vengono monitorate. Supportato solo per le pianificazioni di DataStore. |
_schedule_provider
Necessario
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Provider di pianificazione. |
pipeline_endpoint_id
|
L'ID dell'endpoint della pipeline invia la pianificazione. Valore predefinito: None
|
Commenti
Sono supportati due tipi di pianificazioni. Il primo usa la ricorrenza temporale per inviare una pipeline in una pianificazione specificata. Il secondo monitora un oggetto AzureBlobDatastore per BLOB aggiunti o modificati e invia una pipeline quando vengono rilevate modifiche.
Per creare una pianificazione che invia una pipeline in una pianificazione ricorrente, usare quando ScheduleRecurrence si crea la pianificazione.
Quando si crea una pianificazione per una pipeline, viene usata una utilità ScheduleRecurrence:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Questa pianificazione invia l'oggetto fornito PublishedPipeline ogni 12 ore. La pipeline inviata verrà creata in Esperimento con il nome "helloworld".
Per creare una pianificazione che attiverà PipelineRuns sulle modifiche a un percorso di archiviazione BLOB, specificare un archivio dati e informazioni sui dati correlati durante la creazione della pianificazione.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Si noti che i parametri polling_interval e path_on_datastore sono facoltativi. Il polling_interval specifica la frequenza con cui eseguire il polling delle modifiche all'archivio dati e per impostazione predefinita è di 5 minuti. path_on_datastore può essere usato per specificare quale cartella nell'archivio dati per monitorare le modifiche. Se None, il contenitore datastore viene monitorato. Nota: le aggiunte o le modifiche BLOB nelle sottocartelle del path_on_datastore o del contenitore archivio dati (se non viene specificato alcun path_on_datastore) non vengono rilevate.
Inoltre, se la pipeline è stata costruita per usare un DataPathPipelineParameter oggetto per descrivere un input di passaggio, usare il parametro data_path_parameter_name durante la creazione di una pianificazione attivata dall'archivio dati per impostare l'input sul file modificato quando viene inviata una PipelineRun dalla pianificazione.
Nell'esempio seguente, quando la pianificazione attiva PipelineRun, il valore della pipeline "input_data" PipelineParameter verrà impostato come file modificato/aggiunto:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Per altre informazioni sulle pianificazioni, vedere: https://aka.ms/pl-schedule.
Metodi
create |
Creare una pianificazione per una pipeline. Specificare la ricorrenza per una pianificazione basata sul tempo o specificare un archivio dati, (facoltativo) polling_interval e (facoltativo) data_path_parameter_name per creare una pianificazione che monitorerà il percorso dell'archivio dati per le modifiche/aggiunte. |
create_for_pipeline_endpoint |
Creare una pianificazione per un endpoint della pipeline. Specificare la ricorrenza per una pianificazione basata sul tempo o specificare un archivio dati, (facoltativo) polling_interval e (facoltativo) data_path_parameter_name per creare una pianificazione che monitorerà il percorso dell'archivio dati per le modifiche/aggiunte. |
disable |
Impostare la pianificazione su "Disabilitato" e non disponibile per l'esecuzione. |
enable |
Impostare la pianificazione su 'Active' e disponibile per l'esecuzione. |
get |
Ottenere la pianificazione con l'ID specificato. |
get_all |
Ottenere tutte le pianificazioni nell'area di lavoro corrente. DEPRECATO: questo metodo viene deprecato a favore del list metodo. |
get_last_pipeline_run |
Recuperare l'ultima esecuzione della pipeline inviata dalla pianificazione. Restituisce Nessuna se non sono state inviate esecuzioni. |
get_pipeline_runs |
Recuperare le esecuzioni della pipeline generate dalla pianificazione. |
get_schedules_for_pipeline_endpoint_id |
Ottenere tutte le pianificazioni per l'ID dell'endpoint della pipeline specificato. |
get_schedules_for_pipeline_id |
Ottenere tutte le pianificazioni per l'ID della pipeline specificato. |
list |
Ottenere tutte le pianificazioni nell'area di lavoro corrente. |
load_yaml |
Caricare e leggere il file YAML per ottenere i parametri di pianificazione. Il file YAML è un altro modo per passare i parametri di pianificazione per creare la pianificazione. |
update |
Aggiornare la pianificazione. |
create
Creare una pianificazione per una pipeline.
Specificare la ricorrenza per una pianificazione basata sul tempo o specificare un archivio dati, (facoltativo) polling_interval e (facoltativo) data_path_parameter_name per creare una pianificazione che monitorerà il percorso dell'archivio dati per le modifiche/aggiunte.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametri
Nome | Descrizione |
---|---|
workspace
Necessario
|
L'oggetto area di lavoro a cui appartiene questa pianificazione. |
name
Necessario
|
Nome della pianificazione. |
pipeline_id
Necessario
|
L'ID della pipeline in cui verrà inviato la pianificazione. |
experiment_name
Necessario
|
Il nome dell'esperimento in cui verrà inviato la pianificazione verrà inviato. |
recurrence
|
Ricorrenza della pianificazione della pipeline. Valore predefinito: None
|
description
|
Descrizione della pianificazione. Valore predefinito: None
|
pipeline_parameters
|
Dizionario dei parametri per assegnare nuovi valori {param name, param value} Valore predefinito: None
|
wait_for_provisioning
|
Se attendere il completamento del provisioning della pianificazione. Valore predefinito: False
|
wait_timeout
|
Numero di secondi di attesa prima del timeout. Valore predefinito: 3600
|
datastore
|
Archivio dati da monitorare per i BLOB modificati o aggiunti. Nota: gli archivi dati della rete virtuale non sono supportati. Non è possibile usare con una ricorrenza. Valore predefinito: None
|
polling_interval
|
Tempo, in minuti, tra il polling per i BLOB modificati o aggiunti. Il valore predefinito è 5 minuti. Supportato solo per le pianificazioni di DataStore. Valore predefinito: 5
|
data_path_parameter_name
|
Nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato. Supportato solo per le pianificazioni di DataStore. Valore predefinito: None
|
continue_on_step_failure
|
Se continuare l'esecuzione di altri passaggi nella pipelinerun inviata se un passaggio ha esito negativo. Se specificato, questa impostazione eseguirà l'override dell'impostazione di continue_on_step_failure per la pipeline. Valore predefinito: None
|
path_on_datastore
|
facoltativo. Percorso dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: la path_on_datastore sarà nel contenitore per l'archivio dati, quindi il percorso effettivo verrà monitorato sarà contenitore/path_on_datastore. In caso contrario, il contenitore dell'archivio dati viene monitorato. Le aggiunte o le modifiche apportate in una sottocartella del path_on_datastore non vengono monitorate. Supportato solo per le pianificazioni di DataStore. Valore predefinito: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Provider del flusso di lavoro. Valore predefinito: None
|
_service_endpoint
|
Endpoint del servizio. Valore predefinito: None
|
Restituisce
Tipo | Descrizione |
---|---|
Pianificazione creata. |
create_for_pipeline_endpoint
Creare una pianificazione per un endpoint della pipeline.
Specificare la ricorrenza per una pianificazione basata sul tempo o specificare un archivio dati, (facoltativo) polling_interval e (facoltativo) data_path_parameter_name per creare una pianificazione che monitorerà il percorso dell'archivio dati per le modifiche/aggiunte.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametri
Nome | Descrizione |
---|---|
workspace
Necessario
|
L'oggetto area di lavoro a cui appartiene questa pianificazione. |
name
Necessario
|
Nome della pianificazione. |
pipeline_endpoint_id
Necessario
|
L'ID dell'endpoint della pipeline invia la pianificazione. |
experiment_name
Necessario
|
Il nome dell'esperimento in cui verrà inviato la pianificazione verrà inviato. |
recurrence
|
Ricorrenza della pianificazione della pipeline. Valore predefinito: None
|
description
|
Descrizione della pianificazione. Valore predefinito: None
|
pipeline_parameters
|
Dizionario dei parametri per assegnare nuovi valori {param name, param value} Valore predefinito: None
|
wait_for_provisioning
|
Se attendere il completamento del provisioning della pianificazione. Valore predefinito: False
|
wait_timeout
|
Numero di secondi di attesa prima del timeout. Valore predefinito: 3600
|
datastore
|
Archivio dati da monitorare per i BLOB modificati o aggiunti. Nota: gli archivi dati della rete virtuale non sono supportati. Non è possibile usare con una ricorrenza. Valore predefinito: None
|
polling_interval
|
Tempo, in minuti, tra il polling per i BLOB modificati o aggiunti. Il valore predefinito è 5 minuti. Supportato solo per le pianificazioni di DataStore. Valore predefinito: 5
|
data_path_parameter_name
|
Nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato. Supportato solo per le pianificazioni di DataStore. Valore predefinito: None
|
continue_on_step_failure
|
Se continuare l'esecuzione di altri passaggi nella pipelinerun inviata se un passaggio ha esito negativo. Se specificato, questa impostazione eseguirà l'override dell'impostazione di continue_on_step_failure per la pipeline. Valore predefinito: None
|
path_on_datastore
|
facoltativo. Percorso dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: la path_on_datastore sarà nel contenitore per l'archivio dati, quindi il percorso effettivo verrà monitorato sarà contenitore/path_on_datastore. In caso contrario, il contenitore dell'archivio dati viene monitorato. Le aggiunte o le modifiche apportate in una sottocartella del path_on_datastore non vengono monitorate. Supportato solo per le pianificazioni di DataStore. Valore predefinito: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Provider del flusso di lavoro. Valore predefinito: None
|
_service_endpoint
|
Endpoint del servizio. Valore predefinito: None
|
Restituisce
Tipo | Descrizione |
---|---|
Pianificazione creata. |
disable
Impostare la pianificazione su "Disabilitato" e non disponibile per l'esecuzione.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parametri
Nome | Descrizione |
---|---|
wait_for_provisioning
|
Se attendere il completamento del provisioning della pianificazione. Valore predefinito: False
|
wait_timeout
|
Numero di secondi di attesa prima del timeout. Valore predefinito: 3600
|
enable
Impostare la pianificazione su 'Active' e disponibile per l'esecuzione.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parametri
Nome | Descrizione |
---|---|
wait_for_provisioning
|
Se attendere il completamento del provisioning della pianificazione. Valore predefinito: False
|
wait_timeout
|
Numero di secondi di attesa prima del timeout. Valore predefinito: 3600
|
get
Ottenere la pianificazione con l'ID specificato.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parametri
Nome | Descrizione |
---|---|
workspace
Necessario
|
L'area di lavoro in cui è stata creata la pianificazione. |
id
Necessario
|
ID della pianificazione. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Provider del flusso di lavoro. Valore predefinito: None
|
_service_endpoint
|
Endpoint del servizio. Valore predefinito: None
|
Restituisce
Tipo | Descrizione |
---|---|
Oggetto pianificazione |
get_all
Ottenere tutte le pianificazioni nell'area di lavoro corrente.
DEPRECATO: questo metodo viene deprecato a favore del list metodo.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametri
Nome | Descrizione |
---|---|
workspace
Necessario
|
Area di lavoro. |
active_only
|
Se true, restituisce solo le pianificazioni attualmente attive. Si applica solo se non viene fornito alcun ID della pipeline. Valore predefinito: True
|
pipeline_id
|
Se specificato, restituisce solo pianificazioni per la pipeline con l'ID specificato. Valore predefinito: None
|
pipeline_endpoint_id
|
Se specificato, restituisce solo pianificazioni per l'endpoint della pipeline con l'ID specificato. Valore predefinito: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Provider del flusso di lavoro. Valore predefinito: None
|
_service_endpoint
|
Endpoint del servizio. Valore predefinito: None
|
Restituisce
Tipo | Descrizione |
---|---|
Elenco di Schedule. |
get_last_pipeline_run
Recuperare l'ultima esecuzione della pipeline inviata dalla pianificazione. Restituisce Nessuna se non sono state inviate esecuzioni.
get_last_pipeline_run()
Restituisce
Tipo | Descrizione |
---|---|
Ultima esecuzione della pipeline. |
get_pipeline_runs
Recuperare le esecuzioni della pipeline generate dalla pianificazione.
get_pipeline_runs()
Restituisce
Tipo | Descrizione |
---|---|
Elenco di PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Ottenere tutte le pianificazioni per l'ID dell'endpoint della pipeline specificato.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parametri
Nome | Descrizione |
---|---|
workspace
Necessario
|
Area di lavoro. |
pipeline_endpoint_id
Necessario
|
ID dell'endpoint della pipeline. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Provider del flusso di lavoro. Valore predefinito: None
|
_service_endpoint
|
Endpoint del servizio. Valore predefinito: None
|
Restituisce
Tipo | Descrizione |
---|---|
Elenco di Schedule. |
get_schedules_for_pipeline_id
Ottenere tutte le pianificazioni per l'ID della pipeline specificato.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parametri
Nome | Descrizione |
---|---|
workspace
Necessario
|
Area di lavoro. |
pipeline_id
Necessario
|
ID della pipeline. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Provider del flusso di lavoro. Valore predefinito: None
|
_service_endpoint
|
Endpoint del servizio. Valore predefinito: None
|
Restituisce
Tipo | Descrizione |
---|---|
Elenco di Schedule. |
list
Ottenere tutte le pianificazioni nell'area di lavoro corrente.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametri
Nome | Descrizione |
---|---|
workspace
Necessario
|
Area di lavoro. |
active_only
|
Se true, restituisce solo le pianificazioni attualmente attive. Si applica solo se non viene fornito alcun ID della pipeline. Valore predefinito: True
|
pipeline_id
|
Se specificato, restituisce solo pianificazioni per la pipeline con l'ID specificato. Valore predefinito: None
|
pipeline_endpoint_id
|
Se specificato, restituisce solo pianificazioni per l'endpoint della pipeline con l'ID specificato. Valore predefinito: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Provider del flusso di lavoro. Valore predefinito: None
|
_service_endpoint
|
Endpoint del servizio. Valore predefinito: None
|
Restituisce
Tipo | Descrizione |
---|---|
Elenco di Schedule. |
load_yaml
Caricare e leggere il file YAML per ottenere i parametri di pianificazione.
Il file YAML è un altro modo per passare i parametri di pianificazione per creare la pianificazione.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parametri
Nome | Descrizione |
---|---|
workspace
Necessario
|
Area di lavoro. |
filename
Necessario
|
Nome file YAML con percorso. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Provider del flusso di lavoro. Valore predefinito: None
|
_service_endpoint
|
Endpoint del servizio. Valore predefinito: None
|
Restituisce
Tipo | Descrizione |
---|---|
Dizionario di Schedule parametri e valori. |
Commenti
Per pianificazioni sono supportati due tipi di YAML. Le prime letture e carica le informazioni sulle ricorrenze per la creazione della pianificazione per attivare la pipeline. Il secondo legge e carica le informazioni sull'archivio dati per la pianificazione della creazione per attivare la pipeline.
Esempio di creazione di una pianificazione che invia una pipeline in una ricorrenza, come indicato di seguito:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
File YAML di esempio test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Esempio di creazione di una pianificazione che invia una pipeline in un archivio dati, come indicato di seguito:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Aggiornare la pianificazione.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parametri
Nome | Descrizione |
---|---|
name
|
Nuovo nome della pianificazione. Valore predefinito: None
|
recurrence
|
Nuova ricorrenza della pianificazione della pipeline. Valore predefinito: None
|
description
|
Nuova descrizione della pianificazione. Valore predefinito: None
|
pipeline_parameters
|
Dizionario dei parametri per assegnare nuovi valori {param name, param value}. Valore predefinito: None
|
status
|
Nuovo stato della pianificazione: 'Attivo' o 'Disabilitato'. Valore predefinito: None
|
wait_for_provisioning
|
Se attendere il completamento del provisioning della pianificazione. Valore predefinito: False
|
wait_timeout
|
Numero di secondi di attesa prima del timeout. Valore predefinito: 3600
|
datastore
|
Archivio dati da monitorare per i BLOB modificati o aggiunti. Nota: gli archivi dati della rete virtuale non sono supportati. Valore predefinito: None
|
polling_interval
|
Tempo, in minuti, tra il polling per i BLOB modificati o aggiunti. Il valore predefinito è 5 minuti. Valore predefinito: None
|
data_path_parameter_name
|
Nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato. Valore predefinito: None
|
continue_on_step_failure
|
Se continuare l'esecuzione di altri passaggi nella pipelinerun inviata se un passaggio ha esito negativo. Se specificato, questa impostazione eseguirà l'override dell'impostazione di continue_on_step_failure per la pipeline. Valore predefinito: None
|
path_on_datastore
|
facoltativo. Percorso dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: la path_on_datastore sarà nel contenitore per l'archivio dati, quindi il percorso effettivo verrà monitorato sarà contenitore/path_on_datastore. In caso contrario, il contenitore dell'archivio dati viene monitorato. Le aggiunte o le modifiche apportate in una sottocartella del path_on_datastore non vengono monitorate. Supportato solo per le pianificazioni di DataStore. Valore predefinito: None
|
Attributi
continue_on_step_failure
Ottenere il valore dell'impostazione continue_on_step_failure
.
Restituisce
Tipo | Descrizione |
---|---|
Valore dell'impostazione |
data_path_parameter_name
Ottenere il nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato.
Restituisce
Tipo | Descrizione |
---|---|
Nome del parametro del percorso dati. |
datastore_name
Ottenere il nome dell'archivio dati usato per la pianificazione.
Restituisce
Tipo | Descrizione |
---|---|
Nome archivio dati. |
description
Ottenere la descrizione della pianificazione.
Restituisce
Tipo | Descrizione |
---|---|
Descrizione della pianificazione. |
id
name
path_on_datastore
Ottenere il percorso nell'archivio dati monitorato dalla pianificazione.
Restituisce
Tipo | Descrizione |
---|---|
Percorso nell'archivio dati. |
pipeline_endpoint_id
Ottenere l'ID dell'endpoint della pipeline che invia la pianificazione.
Restituisce
Tipo | Descrizione |
---|---|
ID. |
pipeline_id
polling_interval
Ottenere quanto tempo, in minuti, tra il polling per i BLOB modificati o aggiunti.
Restituisce
Tipo | Descrizione |
---|---|
Intervallo di polling. |
recurrence
Ottenere la ricorrenza della pianificazione.
Restituisce
Tipo | Descrizione |
---|---|
Ricorrenza della pianificazione. |
status
Ottenere lo stato della pianificazione.
Restituisce
Tipo | Descrizione |
---|---|
Stato della pianificazione. |