Dela via


ml Paket

Paket

automl

Innehåller automatiserade maskininlärningsklasser för Azure Machine Learning SDKv2.

Huvudområden är att hantera AutoML-uppgifter.

constants

Det här paketet definierar konstanter som används i Azure Machine Learning SDKv2.

data_transfer
dsl
entities

Innehåller entiteter och SDK-objekt för Azure Machine Learning SDKv2.

Huvudområden är att hantera beräkningsmål, skapa/hantera arbetsytor och jobb, skicka/komma åt modell, köra och köra utdata/loggning osv.

identity

Innehåller identitetskonfiguration för Azure Machine Learning SDKv2.

operations

Innehåller åtgärder som stöds för Azure Machine Learning SDKv2.

Åtgärder är klasser som innehåller logik för att interagera med serverdelstjänster, vanligtvis automatiskt genererade åtgärdsanrop.

parallel
sweep

Moduler

exceptions

Innehåller undantagsmodul i Azure Machine Learning SDKv2.

Detta inkluderar uppräkningar och klasser för undantag.

Klasser

AmlTokenConfiguration

Konfiguration av AzureML-tokenidentitet.

Input

Initiera ett indataobjekt.

MLClient

En klientklass för att interagera med Azure ML-tjänster.

Använd den här klienten för att hantera Azure ML-resurser som arbetsytor, jobb, modeller och så vidare.

ManagedIdentityConfiguration

Konfiguration av autentiseringsuppgifter för hanterad identitet.

MpiDistribution

MPI-distributionskonfiguration.

Output
PyTorchDistribution

PyTorch-distributionskonfiguration.

RayDistribution

Anteckning

Det här är en experimentell klass och kan ändras när som helst. Mer information finns i https://aka.ms/azuremlexperimental.

Konfiguration av ray-distribution.

TensorFlowDistribution

TensorFlow-distributionskonfiguration.

UserIdentityConfiguration

Konfiguration av användaridentitet.

Funktioner

command

Skapar ett kommandoobjekt som kan användas i en dsl.pipeline-funktion eller användas som ett fristående kommandojobb.

command(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, properties: Dict | None = None, display_name: str | None = None, command: str | None = None, experiment_name: str | None = None, environment: str | Environment | None = None, environment_variables: Dict | None = None, distribution: Dict | MpiDistribution | TensorFlowDistribution | PyTorchDistribution | RayDistribution | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, instance_count: int | None = None, instance_type: str | None = None, locations: List[str] | None = None, docker_args: str | None = None, shm_size: str | None = None, timeout: int | None = None, code: PathLike | str | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, is_deterministic: bool = True, services: Dict[str, JobService | JupyterLabJobService | SshJobService | TensorBoardJobService | VsCodeJobService] | None = None, job_tier: str | None = None, priority: str | None = None, **kwargs) -> Command

Parametrar

name
Optional[str]

Namnet på kommandojobbet eller komponenten.

description
Optional[str]

Beskrivningen av kommandot. Standardvärdet är Ingen.

tags
Optional[dict[str, str]]

Taggordlista. Taggar kan läggas till, tas bort och uppdateras. Standardvärdet är Ingen.

properties
Optional[dict[str, str]]

Jobbegenskapsordlistan. Standardvärdet är Ingen.

display_name
Optional[str]

Visningsnamnet för jobbet. Standardvärdet är ett slumpmässigt genererat namn.

command
Optional[str]

Kommandot som ska köras. Standardvärdet är Ingen.

experiment_name
Optional[str]

Namnet på experimentet som jobbet ska skapas under. Standardvärdet är aktuellt katalognamn.

environment
Optional[Union[str, Environment]]

Miljön som jobbet ska köras i.

environment_variables
Optional[dict[str, str]]

En ordlista med miljövariabelnamn och värden. Dessa miljövariabler anges i den process där användarskript körs. Standardvärdet är Ingen.

distribution
Optional[Union[dict, PyTorchDistribution, MpiDistribution, TensorFlowDistribution, RayDistribution]]

Konfigurationen för distribuerade jobb. Standardvärdet är Ingen.

compute
Optional[str]

Beräkningsmålet som jobbet ska köras på. Standardvärdet är standardberäkning.

inputs
Optional[dict[str, Union[Input, str, bool, int, float, <xref:Enum>]]]

En mappning av indatanamn till indatakällor som används i jobbet. Standardvärdet är Ingen.

outputs
Optional[dict[str, Union[str, Output]]]

En mappning av utdatanamn till utdatakällor som används i jobbet. Standardvärdet är Ingen.

instance_count
Optional[int]

Antalet instanser eller noder som ska användas av beräkningsmålet. Standardvärdet är 1.

instance_type
Optional[str]

Den typ av virtuell dator som ska användas av beräkningsmålet.

locations
Optional[list[str]]

Listan över platser där jobbet ska köras.

docker_args
Optional[str]

Extra argument att skicka till Docker-körningskommandot. Detta skulle åsidosätta alla parametrar som redan har angetts av systemet, eller i det här avsnittet. Den här parametern stöds endast för Azure ML-beräkningstyper. Standardvärdet är Ingen.

shm_size
Optional[str]

Storleken på Docker-containerns delade minnesblock. Detta ska vara i formatet (tal)(enhet) där talet måste vara större än 0 och enheten kan vara en av b(byte), k(kilobyte), m(megabyte) eller g(gigabyte).

timeout
Optional[int]

Talet, i sekunder, varefter jobbet avbryts.

code
Optional[Union[str, PathLike]]

Källkoden för att köra jobbet. Kan vara en lokal sökväg eller "http:", "https:" eller "azureml:"-url som pekar på en fjärrplats.

identity
Optional[Union[ ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]

Identiteten som kommandojobbet ska använda när det körs på beräkning.

is_deterministic
bool

Anger om kommandot ska returnera samma utdata med samma indata. Standardvärdet är True. När Sant, om en kommandokomponent är deterministisk och har körts tidigare i den aktuella arbetsytan med samma indata och inställningar, återanvänds resultatet från ett tidigare skickat jobb när det används som en nod eller steg i en pipeline. I det scenariot används inga beräkningsresurser.

services
Optional[dict[str, Union[JobService, JupyterLabJobService, SshJobService, TensorBoardJobService, VsCodeJobService]]]

De interaktiva tjänsterna för noden. Standardvärdet är Ingen. Det här är en experimentell parameter och kan ändras när som helst. Mer information finns i https://aka.ms/azuremlexperimental.

job_tier
Optional[str]

Jobbnivån. Godkända värden är "Spot", "Basic", "Standard" eller "Premium".

priority
Optional[str]

Prioriteten för jobbet på beräkningen. Godkända värden är "low", "medium" och "high". Standardvärdet är "medium".

Returer

Ett kommandoobjekt.

Returtyp

Exempel

Skapa ett kommandojobb med hjälp av metoden command() builder.


   from azure.ai.ml import Input, Output, command

   train_func = command(
       environment="AzureML-sklearn-1.0-ubuntu20.04-py38-cpu:33",
       command='echo "hello world"',
       distribution={"type": "Pytorch", "process_count_per_instance": 2},
       inputs={
           "training_data": Input(type="uri_folder"),
           "max_epochs": 20,
           "learning_rate": 1.8,
           "learning_rate_schedule": "time-based",
       },
       outputs={"model_output": Output(type="uri_folder")},
   )

load_batch_deployment

Skapa ett batchdistributionsobjekt från yaml-filen.

load_batch_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> BatchDeployment

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för ett batchdistributionsobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsa. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras till i den tolkade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil eller filsökvägsindata. Standardvärdet är "./" om källan är en indataström utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Konstruerat batchdistributionsobjekt.

Returtyp

load_batch_endpoint

Konstruera ett batchslutpunktsobjekt från yaml-filen.

load_batch_endpoint(source: str | PathLike | IO, relative_origin: str | None = None, **kwargs) -> BatchEndpoint

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för ett batchslutpunktsobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsa. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str
standardvärde: None

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras till i den tolkade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil eller filsökvägsindata. Standardvärdet är "./" om källan är en indataström utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Konstruerat batchslutpunktsobjekt.

Returtyp

load_component

Läs in komponenten från lokal eller fjärransluten till en komponentfunktion.

load_component(source: str | PathLike | IO | None = None, *, relative_origin: str | None = None, **kwargs) -> CommandComponent | ParallelComponent | PipelineComponent

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
standardvärde: None

Den lokala yaml-källan för en komponent. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Ett komponentobjekt

Returtyp

Exempel

Läsa in ett komponentobjekt från en YAML-fil, åsidosätta dess version till "1.0.2" och registrera det via fjärranslutning.


   from azure.ai.ml import load_component

   component = load_component(
       source="./sdk/ml/azure-ai-ml/tests/test_configs/components/helloworld_component.yml",
       params_override=[{"version": "1.0.2"}],
   )
   registered_component = ml_client.components.create_or_update(component)

load_compute

Konstruera ett beräkningsobjekt från en yaml-fil.

load_compute(source: str | PathLike | IO, *, relative_origin: str | None = None, params_override: List[Dict[str, str]] | None = None, **kwargs) -> Compute

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för en beräkning. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
Optional[str]

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
Optional[List[Dict]]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Inläst beräkningsobjekt.

Returtyp

Exempel

Läser in ett Compute-objekt från en YAML-fil och åsidosättar dess beskrivning.


   from azure.ai.ml import load_compute

   compute = load_compute(
       "../tests/test_configs/compute/compute-vm.yaml",
       params_override=[{"description": "loaded from compute-vm.yaml"}],
   )

load_data

Konstruera ett dataobjekt från yaml-filen.

load_data(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Data

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för ett dataobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Konstruerat data- eller DataImport-objekt.

Returtyp

Undantag

Utlöses om data inte kan verifieras. Information kommer att anges i felmeddelandet.

load_datastore

Skapa ett datalagerobjekt från en yaml-fil.

load_datastore(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Datastore

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för ett datalager. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Inläst datalagerobjekt.

Returtyp

Undantag

Utlöses om datalagringen inte kan verifieras korrekt. Information kommer att anges i felmeddelandet.

load_environment

Konstruera ett miljöobjekt från yaml-filen.

load_environment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Environment

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för en miljö. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Konstruerat miljöobjekt.

Returtyp

Undantag

Utlöses om det inte går att verifiera miljön. Information kommer att anges i felmeddelandet.

load_job

Konstruerar ett jobbobjekt från en YAML-fil.

load_job(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Job

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

En sökväg till en lokal YAML-fil eller ett redan öppet filobjekt som innehåller en jobbkonfiguration. Om källan är en sökväg kommer den att öppnas och läsas. Om källan är en öppen fil kommer filen att läsas direkt.

relative_origin
Optional[str]

Rotkatalogen för YAML. Den här katalogen används som ursprung för att härleda relativa platser för filer som refereras i den tolkade YAML. Standardvärdet är samma katalog som källan om källan är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
Optional[list[dict]]

Parameterfält för att skriva över värden i YAML-filen.

Returer

Ett inläst jobbobjekt.

Returtyp

Job

Undantag

Utlöses om jobbet inte kan verifieras. Information kommer att anges i felmeddelandet.

Exempel

Läser in ett jobb från en YAML-konfigurationsfil.


   from azure.ai.ml import load_job

   job = load_job(source="./sdk/ml/azure-ai-ml/tests/test_configs/command_job/command_job_test_local_env.yml")

load_model

Konstruerar ett modellobjekt från en YAML-fil.

load_model(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Model

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

En sökväg till en lokal YAML-fil eller ett redan öppet filobjekt som innehåller en jobbkonfiguration. Om källan är en sökväg kommer den att öppnas och läsas. Om källan är en öppen fil kommer filen att läsas direkt.

relative_origin
Optional[str]

Rotkatalogen för YAML. Den här katalogen används som ursprung för att härleda relativa platser för filer som refereras i den tolkade YAML. Standardvärdet är samma katalog som källan om källan är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
Optional[list[dict]]

Parameterfält för att skriva över värden i YAML-filen.

Returer

Ett inläst modellobjekt.

Returtyp

Undantag

Utlöses om jobbet inte kan verifieras. Information kommer att anges i felmeddelandet.

Exempel

Läsa in en modell från en YAML-konfigurationsfil och åsidosätta namn- och versionsparametrarna.


   from azure.ai.ml import load_model

   model = load_model(
       source="./sdk/ml/azure-ai-ml/tests/test_configs/model/model_with_stage.yml",
       params_override=[{"name": "new_model_name"}, {"version": "1"}],
   )

load_model_package

Anteckning

Det här är en experimentell metod och kan ändras när som helst. Mer information finns i https://aka.ms/azuremlexperimental.

Konstruerar ett ModelPackage-objekt från en YAML-fil.

load_model_package(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> ModelPackage

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

En sökväg till en lokal YAML-fil eller ett redan öppet filobjekt som innehåller en jobbkonfiguration. Om källan är en sökväg kommer den att öppnas och läsas. Om källan är en öppen fil kommer filen att läsas direkt.

relative_origin
Optional[str]

Rotkatalogen för YAML. Den här katalogen används som ursprung för att härleda relativa platser för filer som refereras i den tolkade YAML. Standardvärdet är samma katalog som källan om källan är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
Optional[list[dict]]

Parameterfält för att skriva över värden i YAML-filen.

Returer

Ett inläst ModelPackage-objekt.

Returtyp

Undantag

Utlöses om jobbet inte kan verifieras. Information kommer att anges i felmeddelandet.

Exempel

Läser in en ModelPackage från en YAML-konfigurationsfil.


   from azure.ai.ml import load_model_package

   model_package = load_model_package(
       "./sdk/ml/azure-ai-ml/tests/test_configs/model_package/model_package_simple.yml"
   )

load_online_deployment

Skapa ett onlinedistributionsobjekt från yaml-filen.

load_online_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineDeployment

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för ett onlinedistributionsobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Konstruerat onlinedistributionsobjekt.

Returtyp

Undantag

Utlöses om onlinedistributionen inte kan verifieras. Information kommer att anges i felmeddelandet.

load_online_endpoint

Skapa ett onlineslutpunktsobjekt från yaml-filen.

load_online_endpoint(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineEndpoint

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för ett onlineslutpunktsobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Konstruerat onlineslutpunktsobjekt.

Returtyp

Undantag

Upphöjt om onlineslutpunkten inte kan verifieras. Information kommer att anges i felmeddelandet.

load_registry

Läs in ett registerobjekt från en yaml-fil.

load_registry(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Registry

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för ett register. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Inläst registerobjekt.

Returtyp

load_workspace

Läs in ett arbetsyteobjekt från en yaml-fil.

load_workspace(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Workspace

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för en arbetsyta. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Inläst arbetsyteobjekt.

Returtyp

load_workspace_connection

Skapa ett anslutningsobjekt för arbetsytan från yaml-filen.

load_workspace_connection(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceConnection

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för ett arbetsyteanslutningsobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Anslutningsobjekt för konstruerad arbetsyta.

Returtyp

load_workspace_hub

Anteckning

Det här är en experimentell metod och kan ändras när som helst. Mer information finns i https://aka.ms/azuremlexperimental.

Läs in ett WorkspaceHub-objekt från en yaml-fil.

load_workspace_hub(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceHub

Parametrar

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatorisk

Den lokala yaml-källan för en WorkspaceHub. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.

relative_origin
str

Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.

params_override
List[Dict]

Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]

Returer

Inläst WorkspaceHub-objekt.

Returtyp

spark

Skapar ett Spark-objekt som kan användas i en dsl.pipeline-funktion eller användas som ett fristående Spark-jobb.

spark(*, experiment_name: str | None = None, name: str | None = None, display_name: str | None = None, description: str | None = None, tags: Dict | None = None, code: PathLike | str | None = None, entry: Dict[str, str] | SparkJobEntry | None = None, py_files: List[str] | None = None, jars: List[str] | None = None, files: List[str] | None = None, archives: List[str] | None = None, identity: Dict[str, str] | ManagedIdentity | AmlToken | UserIdentity | None = None, driver_cores: int | None = None, driver_memory: str | None = None, executor_cores: int | None = None, executor_memory: str | None = None, executor_instances: int | None = None, dynamic_allocation_enabled: bool | None = None, dynamic_allocation_min_executors: int | None = None, dynamic_allocation_max_executors: int | None = None, conf: Dict[str, str] | None = None, environment: str | Environment | None = None, inputs: Dict | None = None, outputs: Dict | None = None, args: str | None = None, compute: str | None = None, resources: Dict | SparkResourceConfiguration | None = None, **kwargs) -> Spark

Parametrar

experiment_name
Optional[str]

Namnet på experimentet som jobbet skapas under.

name
Optional[str]

Namnet på jobbet.

display_name
Optional[str]

Jobbets visningsnamn.

description
Optional[str]

Beskrivningen av jobbet. Standardvärdet är Ingen.

tags
Optional[dict[str, str]]

Ordlistan med taggar för jobbet. Taggar kan läggas till, tas bort och uppdateras. Standardvärdet är Ingen.

code

Källkoden för att köra jobbet. Kan vara en lokal sökväg eller "http:", "https:" eller "azureml:"-url som pekar på en fjärrplats.

entry
Optional[Union[dict[str, str], SparkJobEntry]]

Fil- eller klassinmatningspunkten.

py_files
Optional[list[str]]

Listan över .zip-, .egg- eller .py-filer som ska lagras i PYTHONPATH för Python-appar. Standardvärdet är Ingen.

jars
Optional[list[str]]

Listan över . JAR-filer som ska ingå i drivrutinen och körklassökvägarna. Standardvärdet är Ingen.

files
Optional[list[str]]

Listan över filer som ska placeras i arbetskatalogen för varje utförare. Standardvärdet är Ingen.

archives
Optional[list[str]]

Listan över arkiv som ska extraheras till arbetskatalogen för varje utförare. Standardvärdet är Ingen.

identity
Optional[Union[ dict[str, str], ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]

Den identitet som Spark-jobbet ska använda när det körs på beräkning.

driver_cores
Optional[int]

Antalet kärnor som ska användas för drivrutinsprocessen, endast i klusterläge.

driver_memory
Optional[str]

Mängden minne som ska användas för drivrutinsprocessen, formaterat som strängar med ett suffix för storleksenheter ("k", "m", "g" eller "t") (t.ex. "512m", "2g").

executor_cores
Optional[int]

Antalet kärnor som ska användas på varje utförare.

executor_memory
Optional[str]

Mängden minne som ska användas per körprocess, formaterat som strängar med ett storleksenhetssuffix ("k", "m", "g" eller "t") (t.ex. "512m", "2g").

executor_instances
Optional[int]

Det första antalet utförare.

dynamic_allocation_enabled
Optional[bool]

Om du vill använda dynamisk resursallokering, vilket skalar antalet utförare som registrerats med det här programmet upp och ned baserat på arbetsbelastningen.

dynamic_allocation_min_executors
Optional[int]

Den lägre gränsen för antalet utförare om dynamisk allokering är aktiverad.

dynamic_allocation_max_executors
Optional[int]

Den övre gränsen för antalet utförare om dynamisk allokering är aktiverat.

conf
Optional[dict[str, str]]

En ordlista med fördefinierad Nyckel och värden för Spark-konfigurationer. Standardvärdet är Ingen.

environment
Optional[Union[str, Environment]]

Azure ML-miljön som jobbet ska köras i.

inputs
Optional[dict[str, Input]]

En mappning av indatanamn till indata som används i jobbet. Standardvärdet är Ingen.

outputs
Optional[dict[str, Output]]

En mappning av utdatanamn till utdata som används i jobbet. Standardvärdet är Ingen.

args
Optional[str]

Argumenten för jobbet.

compute
Optional[str]

Beräkningsresursen som jobbet körs på.

resources
Optional[Union[dict, SparkResourceConfiguration]]

Beräkningsresurskonfigurationen för jobbet.

Returer

Ett Spark-objekt.

Returtyp

Exempel

Skapa en Spark-pipeline med hjälp av DSL-pipelinedekoratören


   from azure.ai.ml import Input, Output, dsl, spark
   from azure.ai.ml.constants import AssetTypes, InputOutputModes

   # define the spark task
   first_step = spark(
       code="/src",
       entry={"file": "add_greeting_column.py"},
       py_files=["utils.zip"],
       files=["my_files.txt"],
       driver_cores=2,
       driver_memory="1g",
       executor_cores=1,
       executor_memory="1g",
       executor_instances=1,
       inputs=dict(
           file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
       ),
       args="--file_input ${{inputs.file_input}}",
       resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
   )

   second_step = spark(
       code="/src",
       entry={"file": "count_by_row.py"},
       jars=["scala_project.jar"],
       files=["my_files.txt"],
       driver_cores=2,
       driver_memory="1g",
       executor_cores=1,
       executor_memory="1g",
       executor_instances=1,
       inputs=dict(
           file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
       ),
       outputs=dict(output=Output(type="uri_folder", mode=InputOutputModes.DIRECT)),
       args="--file_input ${{inputs.file_input}} --output ${{outputs.output}}",
       resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
   )

   # Define pipeline
   @dsl.pipeline(description="submit a pipeline with spark job")
   def spark_pipeline_from_builder(data):
       add_greeting_column = first_step(file_input=data)
       count_by_row = second_step(file_input=data)
       return {"output": count_by_row.outputs.output}

   pipeline = spark_pipeline_from_builder(
       data=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT),
   )