Dela via


Schedule Klass

Definierar ett schema som en pipeline ska skickas till.

När en pipeline har publicerats kan ett schema användas för att skicka pipelinen med ett angivet intervall eller när ändringar till en Blob Storage-plats identifieras.

Initiera schema.

Arv
builtins.object
Schedule

Konstruktor

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsyteobjektet som schemalägget ska tillhöra.

id
Obligatorisk
str

ID för schemat.

name
Obligatorisk
str

Namnet på schemat.

description
Obligatorisk
str

Beskrivningen av schemat.

pipeline_id
Obligatorisk
str

ID:t för pipelinen som schemat ska skicka.

status
Obligatorisk
str

Status för schemat, antingen "Aktiv" eller "Inaktiverad".

recurrence
Obligatorisk

Upprepning av schemat för pipelinen.

datastore_name
Obligatorisk
str

Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! 1) VNET-datalager stöds inte. 2) Autentiseringstypen för datalagringen ska vara inställd på "Kontonyckel".

polling_interval
Obligatorisk
int

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.

data_path_parameter_name
Obligatorisk
str

Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.

continue_on_step_failure
Obligatorisk

Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

path_on_datastore
Obligatorisk
str

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Schemaleverantören.

Standardvärde: None
workspace
Obligatorisk

Arbetsyteobjektet som schemalägget ska tillhöra.

id
Obligatorisk
str

ID för schemat.

name
Obligatorisk
str

Namnet på schemat.

description
Obligatorisk
str

Beskrivningen av schemat.

pipeline_id
Obligatorisk
str

ID:t för pipelinen som schemat ska skicka.

status
Obligatorisk
str

Status för schemat, antingen "Aktiv" eller "Inaktiverad".

recurrence
Obligatorisk

Schemat för upprepning av pipelinen.

datastore_name
Obligatorisk
str

Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte.

polling_interval
Obligatorisk
int

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.

data_path_parameter_name
Obligatorisk
str

Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.

continue_on_step_failure
Obligatorisk

Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

path_on_datastore
Obligatorisk
str

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

_schedule_provider
Obligatorisk
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Schemaleverantören.

pipeline_endpoint_id
str

ID:t för pipelineslutpunkten som schemat ska skicka.

Standardvärde: None

Kommentarer

Två typer av scheman stöds. Den första använder upprepningstid för att skicka en pipeline enligt ett visst schema. Den andra övervakar en AzureBlobDatastore för tillagda eller ändrade blobar och skickar en pipeline när ändringar identifieras.

Om du vill skapa ett schema som skickar en pipeline enligt ett återkommande schema använder du ScheduleRecurrence när du skapar schemat.

En ScheduleRecurrence används när du skapar ett schema för en pipeline på följande sätt:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Det här schemat skickar den angivna PublishedPipeline var 12:e timme. Den skickade pipelinen skapas under experimentet med namnet "helloworld".

Om du vill skapa ett schema som utlöser PipelineRuns vid ändringar av en Blob Storage-plats anger du ett datalager och relaterad datainformation när du skapar schemat.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Observera att parametrarna polling_interval och path_on_datastore är valfria. Polling_interval anger hur ofta datalagringen ska avsökas och är som standard 5 minuter. path_on_datastore kan användas för att ange vilken mapp i dataarkivet som ska övervakas för ändringar. Om ingen, övervakas Datastore-containern. Obs! Blobtillägg/ändringar i undermappar i path_on_datastore eller datalagercontainern (om inga path_on_datastore anges) identifieras inte.

Om pipelinen har konstruerats för att använda en DataPathPipelineParameter för att beskriva indata för ett steg använder du dessutom parametern data_path_parameter_name när du skapar ett datalagerutlöst schema för att ange indata till den ändrade filen när en PipelineRun skickas av schemat.

När Schemat utlöser PipelineRun i följande exempel anges värdet för pipelineparametern "input_data" som den fil som ändrades/lades till:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Mer information om scheman finns i: https://aka.ms/pl-schedule.

Metoder

create

Skapa ett schema för en pipeline.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

create_for_pipeline_endpoint

Skapa ett schema för en pipelineslutpunkt.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

disable

Ställ in schemat på "Disabled" (Inaktiverad) och unavailable to run (Inte tillgängligt att köra).

enable

Ställ in schemat på "Aktiv" och tillgängligt att köra.

get

Hämta schemat med det angivna ID:t.

get_all

Hämta alla scheman på den aktuella arbetsytan.

INAKTUELL: Den här metoden blir inaktuell till förmån för list metoden .

get_last_pipeline_run

Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats.

get_pipeline_runs

Hämta pipelinekörningarna som genererades från schemat.

get_schedules_for_pipeline_endpoint_id

Hämta alla scheman för det angivna pipelineslutpunkts-ID:t.

get_schedules_for_pipeline_id

Hämta alla scheman för det angivna pipeline-ID:t.

list

Hämta alla scheman på den aktuella arbetsytan.

load_yaml

Läs in och läs YAML-filen för att hämta schemaparametrar.

YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema.

update

Uppdatera schemat.

create

Skapa ett schema för en pipeline.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsyteobjektet som schemalägget ska tillhöra.

name
Obligatorisk
str

Namnet på schemat.

pipeline_id
Obligatorisk
str

ID:t för pipelinen som schemat ska skicka.

experiment_name
Obligatorisk
str

Namnet på experimentet som schemat skickar körs på.

recurrence

Schemat för upprepning av pipelinen.

Standardvärde: None
description
str

Beskrivningen av schemat.

Standardvärde: None
pipeline_parameters

En ordlista med parametrar för att tilldela nya värden {param name, param value}

Standardvärde: None
wait_for_provisioning

Om du vill vänta tills schemat har etablerats.

Standardvärde: False
wait_timeout
int

Antal sekunder som ska vänta innan tidsgränsen nås.

Standardvärde: 3600
datastore

Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning.

Standardvärde: None
polling_interval
int

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman.

Standardvärde: 5
data_path_parameter_name
str

Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman.

Standardvärde: None
continue_on_step_failure

Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

Standardvärde: None
path_on_datastore
str

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

Standardvärde: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

Det skapade schemat.

create_for_pipeline_endpoint

Skapa ett schema för en pipelineslutpunkt.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsyteobjektet som schemalägget ska tillhöra.

name
Obligatorisk
str

Namnet på schemat.

pipeline_endpoint_id
Obligatorisk
str

ID:t för pipelineslutpunkten som schemat ska skicka.

experiment_name
Obligatorisk
str

Namnet på experimentet som schemat skickar körs på.

recurrence

Schemat för upprepning av pipelinen.

Standardvärde: None
description
str

Beskrivningen av schemat.

Standardvärde: None
pipeline_parameters

En ordlista med parametrar för att tilldela nya värden {param name, param value}

Standardvärde: None
wait_for_provisioning

Om du vill vänta tills schemat har etablerats.

Standardvärde: False
wait_timeout
int

Antal sekunder som ska vänta innan tidsgränsen nås.

Standardvärde: 3600
datastore

Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning.

Standardvärde: None
polling_interval
int

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman.

Standardvärde: 5
data_path_parameter_name
str

Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman.

Standardvärde: None
continue_on_step_failure

Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

Standardvärde: None
path_on_datastore
str

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

Standardvärde: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

Det skapade schemat.

disable

Ställ in schemat på "Disabled" (Inaktiverad) och unavailable to run (Inte tillgängligt att köra).

disable(wait_for_provisioning=False, wait_timeout=3600)

Parametrar

Name Description
wait_for_provisioning

Om du vill vänta tills schemat har etablerats.

Standardvärde: False
wait_timeout
int

Antal sekunder att vänta innan tidsgränsen nås.

Standardvärde: 3600

enable

Ställ in schemat på "Aktiv" och tillgängligt att köra.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parametrar

Name Description
wait_for_provisioning

Om du vill vänta tills schemat har etablerats.

Standardvärde: False
wait_timeout
int

Antal sekunder att vänta innan tidsgränsen nås.

Standardvärde: 3600

get

Hämta schemat med det angivna ID:t.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan som schemat skapades på.

id
Obligatorisk
str

ID för schemat.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

Schemaobjekt

get_all

Hämta alla scheman på den aktuella arbetsytan.

INAKTUELL: Den här metoden blir inaktuell till förmån för list metoden .

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan.

active_only

Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts.

Standardvärde: True
pipeline_id
str

Om detta anges returnerar du endast scheman för pipelinen med det angivna ID:t.

Standardvärde: None
pipeline_endpoint_id
str

Om detta anges returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t.

Standardvärde: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

En lista över Schedule.

get_last_pipeline_run

Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats.

get_last_pipeline_run()

Returer

Typ Description

Den senaste pipelinekörningen.

get_pipeline_runs

Hämta pipelinekörningarna som genererades från schemat.

get_pipeline_runs()

Returer

Typ Description

En lista över PipelineRun.

get_schedules_for_pipeline_endpoint_id

Hämta alla scheman för det angivna pipelineslutpunkts-ID:t.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan.

pipeline_endpoint_id
Obligatorisk
str

Pipelinens slutpunkts-ID.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

En lista över Schedule.

get_schedules_for_pipeline_id

Hämta alla scheman för det angivna pipeline-ID:t.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan.

pipeline_id
Obligatorisk
str

Pipeline-ID:t.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

En lista över Schedule.

list

Hämta alla scheman på den aktuella arbetsytan.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan.

active_only

Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts.

Standardvärde: True
pipeline_id
str

Om detta anges returnerar du endast scheman för pipelinen med det angivna ID:t.

Standardvärde: None
pipeline_endpoint_id
str

Om detta anges returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t.

Standardvärde: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

En lista över Schedule.

load_yaml

Läs in och läs YAML-filen för att hämta schemaparametrar.

YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan.

filename
Obligatorisk
str

YAML-filnamnet med plats.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

En ordlista med Schedule parametrar och värden.

Kommentarer

Två typer av YAML stöds för Scheman. Den första läser in och läser in information om upprepning för schemaskapande för att utlösa pipeline. Den andra läser och läser in information om datalager för schemaskapande för att utlösa pipeline.

Exempel för att skapa ett schema som skickar en pipeline vid återkommande, enligt följande:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

Yaml-exempelfil test_schedule_with_recurrence.yaml:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Exempel för att skapa ett schema som skickar en pipeline i ett datalager enligt följande:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Uppdatera schemat.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parametrar

Name Description
name
str

Det nya namnet på schemat.

Standardvärde: None
recurrence

Det nya schemat återkommer för pipelinen.

Standardvärde: None
description
str

Den nya beskrivningen av schemat.

Standardvärde: None
pipeline_parameters

En ordlista med parametrar för att tilldela nya värden {param name, param value}.

Standardvärde: None
status
str

Schemats nya status: "Aktiv" eller "Inaktiverad".

Standardvärde: None
wait_for_provisioning

Om du vill vänta tills schemat har etablerats.

Standardvärde: False
wait_timeout
int

Antal sekunder att vänta innan tidsgränsen är slut.

Standardvärde: 3600
datastore

Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte.

Standardvärde: None
polling_interval
int

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter.

Standardvärde: None
data_path_parameter_name
str

Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.

Standardvärde: None
continue_on_step_failure

Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

Standardvärde: None
path_on_datastore
str

Valfritt. Sökvägen i dataarkivet som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar blir container/path_on_datastore. Om ingen sådan finns övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

Standardvärde: None

Attribut

continue_on_step_failure

Hämta värdet för inställningen continue_on_step_failure .

Returer

Typ Description

Värdet för inställningen continue_on_step_failure

data_path_parameter_name

Hämta namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.

Returer

Typ Description
str

Parameternamnet för datasökvägen.

datastore_name

Hämta namnet på det datalager som används för schemat.

Returer

Typ Description
str

Namnet på datalager.

description

Hämta beskrivningen av schemat.

Returer

Typ Description
str

Beskrivningen av schemat.

id

Hämta ID:t för schemat.

Returer

Typ Description
str

ID:t.

name

Hämta namnet på schemat.

Returer

Typ Description
str

Namnet.

path_on_datastore

Hämta sökvägen till det datalager som schemat övervakar.

Returer

Typ Description
str

Sökvägen till datalager.

pipeline_endpoint_id

Hämta ID:t för pipelineslutpunkten som schemat skickar.

Returer

Typ Description
str

ID:t.

pipeline_id

Hämta ID:t för pipelinen som schemat skickar.

Returer

Typ Description
str

ID:t.

polling_interval

Hämta hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.

Returer

Typ Description
int

Avsökningsintervallet.

recurrence

Hämta schemats upprepning.

Returer

Typ Description

Schemats upprepning.

status

Hämta schemats status.

Returer

Typ Description
str

Schemats status.