ml Paquet
Paquets
automl |
Contient des classes machine learning automatisées pour Azure Machine Learning SDKv2. Les domaines principaux incluent la gestion des tâches AutoML. |
constants |
Ce package définit les constantes utilisées dans Azure Machine Learning SDKv2. |
data_transfer | |
dsl | |
entities |
Contient des entités et des objets SDK pour Azure Machine Learning SDKv2. Les domaines principaux incluent la gestion des cibles de calcul, la création/la gestion des espaces de travail et des travaux, l’envoi/l’accès au modèle, les exécutions et l’exécution de la sortie/journalisation, etc. |
identity |
Contient la configuration d’identité pour Azure Machine Learning SDKv2. |
operations |
Contient les opérations prises en charge pour Azure Machine Learning SDKv2. Les opérations sont des classes qui contiennent une logique pour interagir avec les services back-ends, généralement un appel d’opérations généré automatiquement. |
parallel | |
sweep |
Modules
exceptions |
Contient le module d’exception dans Azure Machine Learning SDKv2. Cela inclut les énumérations et les classes pour les exceptions. |
Classes
AmlTokenConfiguration |
Configuration de l’identité de jeton AzureML. |
Input |
Initialiser un objet Input. |
MLClient |
Classe cliente pour interagir avec les services Azure ML. Utilisez ce client pour gérer les ressources Azure ML telles que les espaces de travail, les travaux, les modèles, etc. |
ManagedIdentityConfiguration |
Configuration des informations d’identification d’identité managée. |
MpiDistribution |
Configuration de distribution MPI. |
Output | |
PyTorchDistribution |
Configuration de la distribution PyTorch. |
RayDistribution |
Notes Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental. Configuration de la distribution de rayons. |
TensorFlowDistribution |
Configuration de distribution TensorFlow. |
UserIdentityConfiguration |
Configuration de l’identité utilisateur. |
Fonctions
command
Crée un objet Command qui peut être utilisé à l’intérieur d’une fonction dsl.pipeline ou en tant que travail Command autonome.
command(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, properties: Dict | None = None, display_name: str | None = None, command: str | None = None, experiment_name: str | None = None, environment: str | Environment | None = None, environment_variables: Dict | None = None, distribution: Dict | MpiDistribution | TensorFlowDistribution | PyTorchDistribution | RayDistribution | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, instance_count: int | None = None, instance_type: str | None = None, locations: List[str] | None = None, docker_args: str | None = None, shm_size: str | None = None, timeout: int | None = None, code: PathLike | str | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, is_deterministic: bool = True, services: Dict[str, JobService | JupyterLabJobService | SshJobService | TensorBoardJobService | VsCodeJobService] | None = None, job_tier: str | None = None, priority: str | None = None, **kwargs) -> Command
Paramètres
Dictionnaire de balises. Les balises peuvent être ajoutées, supprimées et mises à jour. La valeur par défaut est None.
Dictionnaire de propriétés de travail. La valeur par défaut est None.
Nom de l’expérience sous laquelle le travail sera créé. Par défaut, le nom du répertoire actuel est défini.
- environment
- Optional[Union[str, Environment]]
Environnement dans lequel le travail s’exécutera.
Dictionnaire de noms et de valeurs de variables d’environnement. Ces variables d’environnement sont définies sur le processus où le script utilisateur est en cours d’exécution. La valeur par défaut est None.
- distribution
- Optional[Union[dict, PyTorchDistribution, MpiDistribution, TensorFlowDistribution, RayDistribution]]
Configuration des travaux distribués. La valeur par défaut est None.
Mappage des noms d’entrée aux sources de données d’entrée utilisées dans le travail. La valeur par défaut est None.
Mappage des noms de sortie aux sources de données de sortie utilisées dans le travail. La valeur par défaut est None.
Nombre d’instances ou de nœuds à utiliser par la cible de calcul. La valeur par défaut est de 1.
Arguments supplémentaires à transmettre à la commande run de Docker. Cela remplacerait tous les paramètres qui ont déjà été définis par le système ou dans cette section. Ce paramètre est uniquement pris en charge pour les types de calcul Azure ML. La valeur par défaut est None.
Taille du bloc de mémoire partagée du conteneur Docker. Cela doit être au format (nombre)(unité) où le nombre doit être supérieur à 0 et l’unité peut être un de b(octets), k(kilooctets), m(mégaoctets) ou g(gigaoctets).
Code source pour exécuter le travail. Il peut s’agir d’un chemin d’accès local ou d’une URL « http : », « https : » ou « azureml : » pointant vers un emplacement distant.
- identity
- Optional[Union[ ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]
Identité que le travail de commande utilisera lors de l’exécution sur le calcul.
- is_deterministic
- bool
Spécifie si la commande retourne la même sortie en fonction de la même entrée. La valeur par défaut est True. Si la valeur est True, si un composant de commande est déterministe et a été exécuté auparavant dans l’espace de travail actuel avec les mêmes entrées et paramètres, il réutilise les résultats d’un travail précédemment soumis lorsqu’il est utilisé comme nœud ou étape dans un pipeline. Dans ce scénario, aucune ressource de calcul n’est utilisée.
- services
- Optional[dict[str, Union[JobService, JupyterLabJobService, SshJobService, TensorBoardJobService, VsCodeJobService]]]
Services interactifs pour le nœud. La valeur par défaut est None. Il s’agit d’un paramètre expérimental qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.
Niveau du travail. Les valeurs acceptées sont « Spot », « Basic », « Standard » ou « Premium ».
Priorité du travail sur le calcul. Les valeurs acceptées sont « low », « medium » et « high ». La valeur par défaut est « medium ».
Retours
Un objet Command.
Type de retour
Exemples
Création d’un travail de commande à l’aide de la méthode générateur command().
from azure.ai.ml import Input, Output, command
train_func = command(
environment="AzureML-sklearn-1.0-ubuntu20.04-py38-cpu:33",
command='echo "hello world"',
distribution={"type": "Pytorch", "process_count_per_instance": 2},
inputs={
"training_data": Input(type="uri_folder"),
"max_epochs": 20,
"learning_rate": 1.8,
"learning_rate_schedule": "time-based",
},
outputs={"model_output": Output(type="uri_folder")},
)
load_batch_deployment
Construisez un objet de déploiement par lots à partir d’un fichier yaml.
load_batch_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> BatchDeployment
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un objet de déploiement par lots. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet de déploiement par lots construit.
Type de retour
load_batch_endpoint
Construisez un objet de point de terminaison de lot à partir d’un fichier yaml.
load_batch_endpoint(source: str | PathLike | IO, relative_origin: str | None = None, **kwargs) -> BatchEndpoint
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un objet de point de terminaison de lot. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet de point de terminaison de lot construit.
Type de retour
load_component
Charger un composant à partir d’une fonction locale ou distante vers une fonction de composant.
load_component(source: str | PathLike | IO | None = None, *, relative_origin: str | None = None, **kwargs) -> CommandComponent | ParallelComponent | PipelineComponent
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un composant. Doit être un chemin d’accès à un fichier local ou un fichier déjà ouvert. Si la source est un chemin d’accès, elle est ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. La valeur par défaut est le répertoire de la source saisie s’il s’agit d’une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet Component
Type de retour
Exemples
Chargement d’un objet Component à partir d’un fichier YAML, substitution de sa version par « 1.0.2 » et inscription à distance.
from azure.ai.ml import load_component
component = load_component(
source="./sdk/ml/azure-ai-ml/tests/test_configs/components/helloworld_component.yml",
params_override=[{"version": "1.0.2"}],
)
registered_component = ml_client.components.create_or_update(component)
load_compute
Construisez un objet de calcul à partir d’un fichier yaml.
load_compute(source: str | PathLike | IO, *, relative_origin: str | None = None, params_override: List[Dict[str, str]] | None = None, **kwargs) -> Compute
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un calcul. Doit être un chemin d’accès à un fichier local ou un fichier déjà ouvert. Si la source est un chemin d’accès, elle est ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. La valeur par défaut est le répertoire de la source saisie s’il s’agit d’une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet de calcul chargé.
Type de retour
Exemples
Chargement d’un objet Compute à partir d’un fichier YAML et substitution de sa description.
from azure.ai.ml import load_compute
compute = load_compute(
"../tests/test_configs/compute/compute-vm.yaml",
params_override=[{"description": "loaded from compute-vm.yaml"}],
)
load_data
Construisez un objet de données à partir d’un fichier yaml.
load_data(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Data
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un objet de données. Doit être un chemin d’accès à un fichier local ou un fichier déjà ouvert. Si la source est un chemin d’accès, elle est ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. La valeur par défaut est le répertoire de la source saisie s’il s’agit d’une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet Data ou DataImport construit.
Type de retour
Exceptions
Déclenché si les données ne peuvent pas être validées avec succès. Les détails seront fournis dans le message d’erreur.
load_datastore
Construisez un objet de magasin de données à partir d’un fichier yaml.
load_datastore(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Datastore
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un magasin de données. Doit être un chemin d’accès à un fichier local ou un fichier déjà ouvert. Si la source est un chemin d’accès, elle est ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. La valeur par défaut est le répertoire de la source saisie s’il s’agit d’une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet de magasin de données chargé.
Type de retour
Exceptions
Déclenché si le magasin de données ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.
load_environment
Construisez un objet d’environnement à partir d’un fichier yaml.
load_environment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Environment
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un environnement. Doit être un chemin d’accès à un fichier local ou un fichier déjà ouvert. Si la source est un chemin d’accès, elle est ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. La valeur par défaut est le répertoire de la source saisie s’il s’agit d’une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet d’environnement construit.
Type de retour
Exceptions
Déclenché si l’environnement ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.
load_job
Construit un objet Job à partir d’un fichier YAML.
load_job(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Job
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Chemin d’accès à un fichier YAML local ou à un objet de fichier déjà ouvert contenant une configuration de travail. Si la source est un chemin d’accès, elle est ouverte et lue. Si la source est un fichier ouvert, le fichier est lu directement.
Répertoire racine du YAML. Ce répertoire sera utilisé comme origine pour déduire les emplacements relatifs des fichiers référencés dans le YAML analysé. La valeur par défaut est le même répertoire que la source si la source est une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs de paramètre pour remplacer les valeurs dans le fichier YAML.
Retours
Objet Job chargé.
Type de retour
Exceptions
Déclenché si le travail ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.
Exemples
Chargement d’un travail à partir d’un fichier de configuration YAML.
from azure.ai.ml import load_job
job = load_job(source="./sdk/ml/azure-ai-ml/tests/test_configs/command_job/command_job_test_local_env.yml")
load_model
Construit un objet Model à partir d’un fichier YAML.
load_model(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Model
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Chemin d’accès à un fichier YAML local ou à un objet de fichier déjà ouvert contenant une configuration de travail. Si la source est un chemin d’accès, elle est ouverte et lue. Si la source est un fichier ouvert, le fichier est lu directement.
Répertoire racine du YAML. Ce répertoire sera utilisé comme origine pour déduire les emplacements relatifs des fichiers référencés dans le YAML analysé. La valeur par défaut est le même répertoire que la source si la source est une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs de paramètre pour remplacer les valeurs dans le fichier YAML.
Retours
Objet Model chargé.
Type de retour
Exceptions
Déclenché si le travail ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.
Exemples
Chargement d’un modèle à partir d’un fichier de configuration YAML, en remplaçant les paramètres de nom et de version.
from azure.ai.ml import load_model
model = load_model(
source="./sdk/ml/azure-ai-ml/tests/test_configs/model/model_with_stage.yml",
params_override=[{"name": "new_model_name"}, {"version": "1"}],
)
load_model_package
Notes
Il s’agit d’une méthode expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.
Construit un objet ModelPackage à partir d’un fichier YAML.
load_model_package(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> ModelPackage
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Chemin d’accès à un fichier YAML local ou à un objet de fichier déjà ouvert contenant une configuration de travail. Si la source est un chemin d’accès, elle est ouverte et lue. Si la source est un fichier ouvert, le fichier est lu directement.
Répertoire racine du YAML. Ce répertoire sera utilisé comme origine pour déduire les emplacements relatifs des fichiers référencés dans le YAML analysé. Utilise par défaut le même répertoire que la source si la source est une entrée de chemin d’accès de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs de paramètre pour remplacer les valeurs dans le fichier YAML.
Retours
Objet ModelPackage chargé.
Type de retour
Exceptions
Déclenché si le travail ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.
Exemples
Chargement d’un ModelPackage à partir d’un fichier de configuration YAML.
from azure.ai.ml import load_model_package
model_package = load_model_package(
"./sdk/ml/azure-ai-ml/tests/test_configs/model_package/model_package_simple.yml"
)
load_online_deployment
Créez un objet de déploiement en ligne à partir d’un fichier yaml.
load_online_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineDeployment
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un objet de déploiement en ligne. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet de déploiement en ligne construit.
Type de retour
Exceptions
Déclenché si le déploiement en ligne ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.
load_online_endpoint
Créez un objet de point de terminaison en ligne à partir d’un fichier yaml.
load_online_endpoint(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineEndpoint
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un objet de point de terminaison en ligne. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet de point de terminaison en ligne construit.
Type de retour
Exceptions
Déclenché si le point de terminaison en ligne ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.
load_registry
Chargez un objet de Registre à partir d’un fichier yaml.
load_registry(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Registry
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un registre. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet de Registre chargé.
Type de retour
load_workspace
Charger un objet d’espace de travail à partir d’un fichier yaml.
load_workspace(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Workspace
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un espace de travail. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet d’espace de travail chargé.
Type de retour
load_workspace_connection
Créez un objet de connexion d’espace de travail à partir d’un fichier yaml.
load_workspace_connection(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceConnection
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un objet de connexion d’espace de travail. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet de connexion d’espace de travail construit.
Type de retour
load_workspace_hub
Notes
Il s’agit d’une méthode expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.
Charger un objet WorkspaceHub à partir d’un fichier yaml.
load_workspace_hub(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceHub
Paramètres
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Source yaml locale d’un WorkspaceHub. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.
- relative_origin
- str
Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.
Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]
Retours
Objet WorkspaceHub chargé.
Type de retour
spark
Crée un objet Spark qui peut être utilisé à l’intérieur d’une fonction dsl.pipeline ou en tant que travail Spark autonome.
spark(*, experiment_name: str | None = None, name: str | None = None, display_name: str | None = None, description: str | None = None, tags: Dict | None = None, code: PathLike | str | None = None, entry: Dict[str, str] | SparkJobEntry | None = None, py_files: List[str] | None = None, jars: List[str] | None = None, files: List[str] | None = None, archives: List[str] | None = None, identity: Dict[str, str] | ManagedIdentity | AmlToken | UserIdentity | None = None, driver_cores: int | None = None, driver_memory: str | None = None, executor_cores: int | None = None, executor_memory: str | None = None, executor_instances: int | None = None, dynamic_allocation_enabled: bool | None = None, dynamic_allocation_min_executors: int | None = None, dynamic_allocation_max_executors: int | None = None, conf: Dict[str, str] | None = None, environment: str | Environment | None = None, inputs: Dict | None = None, outputs: Dict | None = None, args: str | None = None, compute: str | None = None, resources: Dict | SparkResourceConfiguration | None = None, **kwargs) -> Spark
Paramètres
Dictionnaire des balises pour le travail. Les balises peuvent être ajoutées, supprimées et mises à jour. La valeur par défaut est None.
- code
Code source pour exécuter le travail. Il peut s’agir d’un chemin d’accès local ou d’une URL « http : », « https : » ou « azureml : » pointant vers un emplacement distant.
Liste des fichiers .zip, .egg ou .py à placer sur pythonPATH pour les applications Python. La valeur par défaut est None.
Liste de . Fichiers JAR à inclure sur les chemins de classe du pilote et de l’exécuteur. La valeur par défaut est None.
Liste des fichiers à placer dans le répertoire de travail de chaque exécuteur. La valeur par défaut est None.
Liste des archives à extraire dans le répertoire de travail de chaque exécuteur. La valeur par défaut est None.
- identity
- Optional[Union[ dict[str, str], ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]
Identité que le travail Spark utilisera lors de l’exécution sur le calcul.
Nombre de cœurs à utiliser pour le processus de pilote, uniquement en mode cluster.
Quantité de mémoire à utiliser pour le processus de pilote, mise en forme sous forme de chaînes avec un suffixe d’unité de taille (« k », « m », « g » ou « t ») (par exemple, « 512m », « 2g »).
Quantité de mémoire à utiliser par processus d’exécuteur, mise en forme sous forme de chaînes avec un suffixe d’unité de taille (« k », « m », « g » ou « t ») (par exemple, « 512m », « 2g »).
Indique s’il faut utiliser l’allocation dynamique des ressources, qui met à l’échelle le nombre d’exécuteurs inscrits auprès de cette application en fonction de la charge de travail.
Limite inférieure pour le nombre d’exécuteurs si l’allocation dynamique est activée.
Limite supérieure pour le nombre d’exécuteurs si l’allocation dynamique est activée.
Dictionnaire avec une clé et des valeurs de configuration Spark prédéfinies. La valeur par défaut est None.
- environment
- Optional[Union[str, Environment]]
Environnement Azure ML dans lequel exécuter le travail.
Mappage des noms d’entrée aux données d’entrée utilisées dans le travail. La valeur par défaut est None.
Mappage des noms de sortie aux données de sortie utilisées dans le travail. La valeur par défaut est None.
- resources
- Optional[Union[dict, SparkResourceConfiguration]]
Configuration des ressources de calcul pour le travail.
Retours
Objet Spark.
Type de retour
Exemples
Création d’un pipeline Spark à l’aide du décorateur de pipeline DSL
from azure.ai.ml import Input, Output, dsl, spark
from azure.ai.ml.constants import AssetTypes, InputOutputModes
# define the spark task
first_step = spark(
code="/src",
entry={"file": "add_greeting_column.py"},
py_files=["utils.zip"],
files=["my_files.txt"],
driver_cores=2,
driver_memory="1g",
executor_cores=1,
executor_memory="1g",
executor_instances=1,
inputs=dict(
file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
),
args="--file_input ${{inputs.file_input}}",
resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
)
second_step = spark(
code="/src",
entry={"file": "count_by_row.py"},
jars=["scala_project.jar"],
files=["my_files.txt"],
driver_cores=2,
driver_memory="1g",
executor_cores=1,
executor_memory="1g",
executor_instances=1,
inputs=dict(
file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
),
outputs=dict(output=Output(type="uri_folder", mode=InputOutputModes.DIRECT)),
args="--file_input ${{inputs.file_input}} --output ${{outputs.output}}",
resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
)
# Define pipeline
@dsl.pipeline(description="submit a pipeline with spark job")
def spark_pipeline_from_builder(data):
add_greeting_column = first_step(file_input=data)
count_by_row = second_step(file_input=data)
return {"output": count_by_row.outputs.output}
pipeline = spark_pipeline_from_builder(
data=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT),
)
Azure SDK for Python