ml Paket
Paket
automl |
Innehåller automatiserade maskininlärningsklasser för Azure Machine Learning SDKv2. Huvudområden är att hantera AutoML-uppgifter. |
constants |
Det här paketet definierar konstanter som används i Azure Machine Learning SDKv2. |
data_transfer | |
dsl | |
entities |
Innehåller entiteter och SDK-objekt för Azure Machine Learning SDKv2. Huvudområden är att hantera beräkningsmål, skapa/hantera arbetsytor och jobb, skicka/komma åt modell, köra och köra utdata/loggning osv. |
identity |
Innehåller identitetskonfiguration för Azure Machine Learning SDKv2. |
operations |
Innehåller åtgärder som stöds för Azure Machine Learning SDKv2. Åtgärder är klasser som innehåller logik för att interagera med serverdelstjänster, vanligtvis automatiskt genererade åtgärdsanrop. |
parallel | |
sweep |
Moduler
exceptions |
Innehåller undantagsmodul i Azure Machine Learning SDKv2. Detta inkluderar uppräkningar och klasser för undantag. |
Klasser
AmlTokenConfiguration |
Konfiguration av AzureML-tokenidentitet. |
Input |
Initiera ett indataobjekt. |
MLClient |
En klientklass för att interagera med Azure ML-tjänster. Använd den här klienten för att hantera Azure ML-resurser som arbetsytor, jobb, modeller och så vidare. |
ManagedIdentityConfiguration |
Konfiguration av autentiseringsuppgifter för hanterad identitet. |
MpiDistribution |
MPI-distributionskonfiguration. |
Output | |
PyTorchDistribution |
PyTorch-distributionskonfiguration. |
RayDistribution |
Anteckning Det här är en experimentell klass och kan ändras när som helst. Mer information finns i https://aka.ms/azuremlexperimental. Konfiguration av ray-distribution. |
TensorFlowDistribution |
TensorFlow-distributionskonfiguration. |
UserIdentityConfiguration |
Konfiguration av användaridentitet. |
Funktioner
command
Skapar ett kommandoobjekt som kan användas i en dsl.pipeline-funktion eller användas som ett fristående kommandojobb.
command(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, properties: Dict | None = None, display_name: str | None = None, command: str | None = None, experiment_name: str | None = None, environment: str | Environment | None = None, environment_variables: Dict | None = None, distribution: Dict | MpiDistribution | TensorFlowDistribution | PyTorchDistribution | RayDistribution | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, instance_count: int | None = None, instance_type: str | None = None, locations: List[str] | None = None, docker_args: str | None = None, shm_size: str | None = None, timeout: int | None = None, code: PathLike | str | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, is_deterministic: bool = True, services: Dict[str, JobService | JupyterLabJobService | SshJobService | TensorBoardJobService | VsCodeJobService] | None = None, job_tier: str | None = None, priority: str | None = None, **kwargs) -> Command
Parametrar
Taggordlista. Taggar kan läggas till, tas bort och uppdateras. Standardvärdet är Ingen.
Visningsnamnet för jobbet. Standardvärdet är ett slumpmässigt genererat namn.
Namnet på experimentet som jobbet ska skapas under. Standardvärdet är aktuellt katalognamn.
- environment
- Optional[Union[str, Environment]]
Miljön som jobbet ska köras i.
En ordlista med miljövariabelnamn och värden. Dessa miljövariabler anges i den process där användarskript körs. Standardvärdet är Ingen.
- distribution
- Optional[Union[dict, PyTorchDistribution, MpiDistribution, TensorFlowDistribution, RayDistribution]]
Konfigurationen för distribuerade jobb. Standardvärdet är Ingen.
En mappning av indatanamn till indatakällor som används i jobbet. Standardvärdet är Ingen.
En mappning av utdatanamn till utdatakällor som används i jobbet. Standardvärdet är Ingen.
Antalet instanser eller noder som ska användas av beräkningsmålet. Standardvärdet är 1.
Extra argument att skicka till Docker-körningskommandot. Detta skulle åsidosätta alla parametrar som redan har angetts av systemet, eller i det här avsnittet. Den här parametern stöds endast för Azure ML-beräkningstyper. Standardvärdet är Ingen.
Storleken på Docker-containerns delade minnesblock. Detta ska vara i formatet (tal)(enhet) där talet måste vara större än 0 och enheten kan vara en av b(byte), k(kilobyte), m(megabyte) eller g(gigabyte).
Källkoden för att köra jobbet. Kan vara en lokal sökväg eller "http:", "https:" eller "azureml:"-url som pekar på en fjärrplats.
- identity
- Optional[Union[ ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]
Identiteten som kommandojobbet ska använda när det körs på beräkning.
- is_deterministic
- bool
Anger om kommandot ska returnera samma utdata med samma indata. Standardvärdet är True. När Sant, om en kommandokomponent är deterministisk och har körts tidigare i den aktuella arbetsytan med samma indata och inställningar, återanvänds resultatet från ett tidigare skickat jobb när det används som en nod eller steg i en pipeline. I det scenariot används inga beräkningsresurser.
- services
- Optional[dict[str, Union[JobService, JupyterLabJobService, SshJobService, TensorBoardJobService, VsCodeJobService]]]
De interaktiva tjänsterna för noden. Standardvärdet är Ingen. Det här är en experimentell parameter och kan ändras när som helst. Mer information finns i https://aka.ms/azuremlexperimental.
Prioriteten för jobbet på beräkningen. Godkända värden är "low", "medium" och "high". Standardvärdet är "medium".
Returer
Ett kommandoobjekt.
Returtyp
Exempel
Skapa ett kommandojobb med hjälp av metoden command() builder.
from azure.ai.ml import Input, Output, command
train_func = command(
environment="AzureML-sklearn-1.0-ubuntu20.04-py38-cpu:33",
command='echo "hello world"',
distribution={"type": "Pytorch", "process_count_per_instance": 2},
inputs={
"training_data": Input(type="uri_folder"),
"max_epochs": 20,
"learning_rate": 1.8,
"learning_rate_schedule": "time-based",
},
outputs={"model_output": Output(type="uri_folder")},
)
load_batch_deployment
Skapa ett batchdistributionsobjekt från yaml-filen.
load_batch_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> BatchDeployment
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för ett batchdistributionsobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsa. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras till i den tolkade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil eller filsökvägsindata. Standardvärdet är "./" om källan är en indataström utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Konstruerat batchdistributionsobjekt.
Returtyp
load_batch_endpoint
Konstruera ett batchslutpunktsobjekt från yaml-filen.
load_batch_endpoint(source: str | PathLike | IO, relative_origin: str | None = None, **kwargs) -> BatchEndpoint
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för ett batchslutpunktsobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsa. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras till i den tolkade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil eller filsökvägsindata. Standardvärdet är "./" om källan är en indataström utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Konstruerat batchslutpunktsobjekt.
Returtyp
load_component
Läs in komponenten från lokal eller fjärransluten till en komponentfunktion.
load_component(source: str | PathLike | IO | None = None, *, relative_origin: str | None = None, **kwargs) -> CommandComponent | ParallelComponent | PipelineComponent
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för en komponent. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Ett komponentobjekt
Returtyp
Exempel
Läsa in ett komponentobjekt från en YAML-fil, åsidosätta dess version till "1.0.2" och registrera det via fjärranslutning.
from azure.ai.ml import load_component
component = load_component(
source="./sdk/ml/azure-ai-ml/tests/test_configs/components/helloworld_component.yml",
params_override=[{"version": "1.0.2"}],
)
registered_component = ml_client.components.create_or_update(component)
load_compute
Konstruera ett beräkningsobjekt från en yaml-fil.
load_compute(source: str | PathLike | IO, *, relative_origin: str | None = None, params_override: List[Dict[str, str]] | None = None, **kwargs) -> Compute
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för en beräkning. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Inläst beräkningsobjekt.
Returtyp
Exempel
Läser in ett Compute-objekt från en YAML-fil och åsidosättar dess beskrivning.
from azure.ai.ml import load_compute
compute = load_compute(
"../tests/test_configs/compute/compute-vm.yaml",
params_override=[{"description": "loaded from compute-vm.yaml"}],
)
load_data
Konstruera ett dataobjekt från yaml-filen.
load_data(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Data
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för ett dataobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Konstruerat data- eller DataImport-objekt.
Returtyp
Undantag
Utlöses om data inte kan verifieras. Information kommer att anges i felmeddelandet.
load_datastore
Skapa ett datalagerobjekt från en yaml-fil.
load_datastore(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Datastore
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för ett datalager. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Inläst datalagerobjekt.
Returtyp
Undantag
Utlöses om datalagringen inte kan verifieras korrekt. Information kommer att anges i felmeddelandet.
load_environment
Konstruera ett miljöobjekt från yaml-filen.
load_environment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Environment
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för en miljö. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Konstruerat miljöobjekt.
Returtyp
Undantag
Utlöses om det inte går att verifiera miljön. Information kommer att anges i felmeddelandet.
load_job
Konstruerar ett jobbobjekt från en YAML-fil.
load_job(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Job
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
En sökväg till en lokal YAML-fil eller ett redan öppet filobjekt som innehåller en jobbkonfiguration. Om källan är en sökväg kommer den att öppnas och läsas. Om källan är en öppen fil kommer filen att läsas direkt.
Rotkatalogen för YAML. Den här katalogen används som ursprung för att härleda relativa platser för filer som refereras i den tolkade YAML. Standardvärdet är samma katalog som källan om källan är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Returer
Ett inläst jobbobjekt.
Returtyp
Undantag
Utlöses om jobbet inte kan verifieras. Information kommer att anges i felmeddelandet.
Exempel
Läser in ett jobb från en YAML-konfigurationsfil.
from azure.ai.ml import load_job
job = load_job(source="./sdk/ml/azure-ai-ml/tests/test_configs/command_job/command_job_test_local_env.yml")
load_model
Konstruerar ett modellobjekt från en YAML-fil.
load_model(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Model
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
En sökväg till en lokal YAML-fil eller ett redan öppet filobjekt som innehåller en jobbkonfiguration. Om källan är en sökväg kommer den att öppnas och läsas. Om källan är en öppen fil kommer filen att läsas direkt.
Rotkatalogen för YAML. Den här katalogen används som ursprung för att härleda relativa platser för filer som refereras i den tolkade YAML. Standardvärdet är samma katalog som källan om källan är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Returer
Ett inläst modellobjekt.
Returtyp
Undantag
Utlöses om jobbet inte kan verifieras. Information kommer att anges i felmeddelandet.
Exempel
Läsa in en modell från en YAML-konfigurationsfil och åsidosätta namn- och versionsparametrarna.
from azure.ai.ml import load_model
model = load_model(
source="./sdk/ml/azure-ai-ml/tests/test_configs/model/model_with_stage.yml",
params_override=[{"name": "new_model_name"}, {"version": "1"}],
)
load_model_package
Anteckning
Det här är en experimentell metod och kan ändras när som helst. Mer information finns i https://aka.ms/azuremlexperimental.
Konstruerar ett ModelPackage-objekt från en YAML-fil.
load_model_package(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> ModelPackage
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
En sökväg till en lokal YAML-fil eller ett redan öppet filobjekt som innehåller en jobbkonfiguration. Om källan är en sökväg kommer den att öppnas och läsas. Om källan är en öppen fil kommer filen att läsas direkt.
Rotkatalogen för YAML. Den här katalogen används som ursprung för att härleda relativa platser för filer som refereras i den tolkade YAML. Standardvärdet är samma katalog som källan om källan är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Returer
Ett inläst ModelPackage-objekt.
Returtyp
Undantag
Utlöses om jobbet inte kan verifieras. Information kommer att anges i felmeddelandet.
Exempel
Läser in en ModelPackage från en YAML-konfigurationsfil.
from azure.ai.ml import load_model_package
model_package = load_model_package(
"./sdk/ml/azure-ai-ml/tests/test_configs/model_package/model_package_simple.yml"
)
load_online_deployment
Skapa ett onlinedistributionsobjekt från yaml-filen.
load_online_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineDeployment
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för ett onlinedistributionsobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Konstruerat onlinedistributionsobjekt.
Returtyp
Undantag
Utlöses om onlinedistributionen inte kan verifieras. Information kommer att anges i felmeddelandet.
load_online_endpoint
Skapa ett onlineslutpunktsobjekt från yaml-filen.
load_online_endpoint(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineEndpoint
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för ett onlineslutpunktsobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Konstruerat onlineslutpunktsobjekt.
Returtyp
Undantag
Upphöjt om onlineslutpunkten inte kan verifieras. Information kommer att anges i felmeddelandet.
load_registry
Läs in ett registerobjekt från en yaml-fil.
load_registry(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Registry
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för ett register. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Inläst registerobjekt.
Returtyp
load_workspace
Läs in ett arbetsyteobjekt från en yaml-fil.
load_workspace(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Workspace
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för en arbetsyta. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Inläst arbetsyteobjekt.
Returtyp
load_workspace_connection
Skapa ett anslutningsobjekt för arbetsytan från yaml-filen.
load_workspace_connection(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceConnection
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för ett arbetsyteanslutningsobjekt. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Anslutningsobjekt för konstruerad arbetsyta.
Returtyp
load_workspace_hub
Anteckning
Det här är en experimentell metod och kan ändras när som helst. Mer information finns i https://aka.ms/azuremlexperimental.
Läs in ett WorkspaceHub-objekt från en yaml-fil.
load_workspace_hub(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceHub
Parametrar
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Den lokala yaml-källan för en WorkspaceHub. Måste antingen vara en sökväg till en lokal fil eller en fil som redan är öppen. Om källan är en sökväg kommer den att vara öppen och läsas. Ett undantag utlöses om filen inte finns. Om källan är en öppen fil läses filen direkt och ett undantag utlöses om filen inte kan läsas.
- relative_origin
- str
Ursprunget som ska användas när du härleder de relativa platserna för filer som refereras i den parsade yamlen. Standardvärdet är den inmatade källans katalog om det är en fil- eller filsökvägsinmatning. Standardvärdet är "./" om källan är en strömindata utan namnvärde.
Fält som ska skrivas över ovanpå yaml-filen. Formatet är [{"field1": "value1"}, {"field2": "value2"}]
Returer
Inläst WorkspaceHub-objekt.
Returtyp
spark
Skapar ett Spark-objekt som kan användas i en dsl.pipeline-funktion eller användas som ett fristående Spark-jobb.
spark(*, experiment_name: str | None = None, name: str | None = None, display_name: str | None = None, description: str | None = None, tags: Dict | None = None, code: PathLike | str | None = None, entry: Dict[str, str] | SparkJobEntry | None = None, py_files: List[str] | None = None, jars: List[str] | None = None, files: List[str] | None = None, archives: List[str] | None = None, identity: Dict[str, str] | ManagedIdentity | AmlToken | UserIdentity | None = None, driver_cores: int | None = None, driver_memory: str | None = None, executor_cores: int | None = None, executor_memory: str | None = None, executor_instances: int | None = None, dynamic_allocation_enabled: bool | None = None, dynamic_allocation_min_executors: int | None = None, dynamic_allocation_max_executors: int | None = None, conf: Dict[str, str] | None = None, environment: str | Environment | None = None, inputs: Dict | None = None, outputs: Dict | None = None, args: str | None = None, compute: str | None = None, resources: Dict | SparkResourceConfiguration | None = None, **kwargs) -> Spark
Parametrar
Ordlistan med taggar för jobbet. Taggar kan läggas till, tas bort och uppdateras. Standardvärdet är Ingen.
- code
Källkoden för att köra jobbet. Kan vara en lokal sökväg eller "http:", "https:" eller "azureml:"-url som pekar på en fjärrplats.
Listan över .zip-, .egg- eller .py-filer som ska lagras i PYTHONPATH för Python-appar. Standardvärdet är Ingen.
Listan över . JAR-filer som ska ingå i drivrutinen och körklassökvägarna. Standardvärdet är Ingen.
Listan över filer som ska placeras i arbetskatalogen för varje utförare. Standardvärdet är Ingen.
Listan över arkiv som ska extraheras till arbetskatalogen för varje utförare. Standardvärdet är Ingen.
- identity
- Optional[Union[ dict[str, str], ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]
Den identitet som Spark-jobbet ska använda när det körs på beräkning.
Antalet kärnor som ska användas för drivrutinsprocessen, endast i klusterläge.
Mängden minne som ska användas för drivrutinsprocessen, formaterat som strängar med ett suffix för storleksenheter ("k", "m", "g" eller "t") (t.ex. "512m", "2g").
Mängden minne som ska användas per körprocess, formaterat som strängar med ett storleksenhetssuffix ("k", "m", "g" eller "t") (t.ex. "512m", "2g").
Om du vill använda dynamisk resursallokering, vilket skalar antalet utförare som registrerats med det här programmet upp och ned baserat på arbetsbelastningen.
Den lägre gränsen för antalet utförare om dynamisk allokering är aktiverad.
Den övre gränsen för antalet utförare om dynamisk allokering är aktiverat.
En ordlista med fördefinierad Nyckel och värden för Spark-konfigurationer. Standardvärdet är Ingen.
- environment
- Optional[Union[str, Environment]]
Azure ML-miljön som jobbet ska köras i.
En mappning av indatanamn till indata som används i jobbet. Standardvärdet är Ingen.
En mappning av utdatanamn till utdata som används i jobbet. Standardvärdet är Ingen.
- resources
- Optional[Union[dict, SparkResourceConfiguration]]
Beräkningsresurskonfigurationen för jobbet.
Returer
Ett Spark-objekt.
Returtyp
Exempel
Skapa en Spark-pipeline med hjälp av DSL-pipelinedekoratören
from azure.ai.ml import Input, Output, dsl, spark
from azure.ai.ml.constants import AssetTypes, InputOutputModes
# define the spark task
first_step = spark(
code="/src",
entry={"file": "add_greeting_column.py"},
py_files=["utils.zip"],
files=["my_files.txt"],
driver_cores=2,
driver_memory="1g",
executor_cores=1,
executor_memory="1g",
executor_instances=1,
inputs=dict(
file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
),
args="--file_input ${{inputs.file_input}}",
resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
)
second_step = spark(
code="/src",
entry={"file": "count_by_row.py"},
jars=["scala_project.jar"],
files=["my_files.txt"],
driver_cores=2,
driver_memory="1g",
executor_cores=1,
executor_memory="1g",
executor_instances=1,
inputs=dict(
file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
),
outputs=dict(output=Output(type="uri_folder", mode=InputOutputModes.DIRECT)),
args="--file_input ${{inputs.file_input}} --output ${{outputs.output}}",
resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
)
# Define pipeline
@dsl.pipeline(description="submit a pipeline with spark job")
def spark_pipeline_from_builder(data):
add_greeting_column = first_step(file_input=data)
count_by_row = second_step(file_input=data)
return {"output": count_by_row.outputs.output}
pipeline = spark_pipeline_from_builder(
data=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT),
)
Azure SDK for Python