TextClassificationMultilabelJob Classe
Configuration de la tâche multiétiquette de classification de texte AutoML.
Initialise une nouvelle tâche AutoML Text Classification Multilabel.
- Héritage
-
azure.ai.ml.entities._job.automl.nlp.automl_nlp_job.AutoMLNLPJobTextClassificationMultilabelJob
Constructeur
TextClassificationMultilabelJob(*, target_column_name: str | None = None, training_data: Input | None = None, validation_data: Input | None = None, primary_metric: str | None = None, log_verbosity: str | None = None, **kwargs)
Paramètres
- target_column_name
Nom de la colonne cible
- training_data
Données d’entraînement à utiliser pour l’entraînement
- validation_data
Données de validation à utiliser pour évaluer le modèle entraîné
- primary_metric
Métrique principale à afficher.
- log_verbosity
Niveau de détail du journal
- kwargs
Arguments spécifiques au travail
Méthodes
dump |
Vide le contenu du travail dans un fichier au format YAML. |
extend_search_space |
Ajoutez (a) un ou plusieurs espaces de recherche pour ce travail AutoML NLP. |
set_data | |
set_featurization | |
set_limits | |
set_sweep |
Paramètres de balayage pour toutes les tâches NLP AutoML. |
set_training_parameters |
Corrigez certains paramètres d’entraînement tout au long de la procédure d’entraînement pour tous les candidats. Passer. Il doit s’agir d’un entier positif. :mot clé learning_rate : taux d’apprentissage initial. Doit être un float in (0, 1). :mot clé learning_rate_scheduler : type de planificateur de taux d’apprentissage. Vous devez choisir parmi « linéaire », « cosinus », « cosine_with_restarts », « polynomial », « constante » et « constant_with_warmup ». :mot clé model_name : nom du modèle à utiliser pendant l’entraînement. Doit choisir parmi 'bert-base-cased', 'bert-base-uncased', 'bert-base-multilingual-cased', 'bert-base-german-cased', 'bert-large-cased', 'bert-large-uncased', 'distilbert-base-cased', 'distilbert-base-uncased', 'roberta-base', 'roberta-large', 'distilroberta-base', 'xlm-roberta-base', 'xlm-roberta-large', xlnet-base-cased' et 'xlnet-large-cased'. :mot clé number_of_epochs : nombre d’époques avec laquelle effectuer l’apprentissage. Cette valeur doit être un entier positif. :mot clé training_batch_size : taille du lot pendant l’entraînement. Cette valeur doit être un entier positif. :mot clé validation_batch_size : taille du lot pendant la validation. Cette valeur doit être un entier positif. :mot clé warmup_ratio : ratio des étapes d’entraînement totales utilisées pour un préchauffement linéaire de 0 à learning_rate. Doit être un float dans [0, 1]. :mot clé weight_decay : valeur de la décomposition de poids lorsque l’optimiseur est sgd, adam ou adamw. Il doit s’agir d’un float dans la plage [0, 1]. :return : Aucun. |
dump
Vide le contenu du travail dans un fichier au format YAML.
dump(dest: str | PathLike | IO, **kwargs) -> None
Paramètres
Chemin d’accès local ou flux de fichiers dans lequel écrire le contenu YAML. Si dest est un chemin de fichier, un nouveau fichier est créé. Si dest est un fichier ouvert, le fichier est écrit directement dans.
- kwargs
- dict
Arguments supplémentaires à passer au sérialiseur YAML.
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
extend_search_space
Ajoutez (a) un ou plusieurs espaces de recherche pour ce travail AutoML NLP.
extend_search_space(value: SearchSpace | List[SearchSpace]) -> None
Paramètres
- value
- Union[SearchSpace, List[SearchSpace]]
objet SearchSpace ou liste d’objets SearchSpace avec des paramètres spécifiques au nlp.
Retours
Aucun.
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
set_data
set_data(*, training_data: Input, target_column_name: str, validation_data: Input) -> None
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
set_featurization
set_featurization(*, dataset_language: str | None = None) -> None
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
set_limits
set_limits(*, max_trials: int = 1, max_concurrent_trials: int = 1, max_nodes: int = 1, timeout_minutes: int | None = None, trial_timeout_minutes: int | None = None) -> None
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
set_sweep
Paramètres de balayage pour toutes les tâches NLP AutoML.
set_sweep(*, sampling_algorithm: str | SamplingAlgorithmType, early_termination: EarlyTerminationPolicy | None = None)
Paramètres
- sampling_algorithm
Obligatoire. Spécifie le type d’algorithme d’échantillonnage des hyperparamètres. Les valeurs possibles sont les suivantes : « Grid », « Random » et « Bayésian ».
- early_termination
Politique facultative d’arrêt anticipé pour mettre fin aux candidats à la formation peu performants.
Retours
None
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
set_training_parameters
Corrigez certains paramètres d’entraînement tout au long de la procédure d’entraînement pour tous les candidats.
Passer. Il doit s’agir d’un entier positif. :mot clé learning_rate : taux d’apprentissage initial. Doit être un float in (0, 1). :mot clé learning_rate_scheduler : type de planificateur de taux d’apprentissage. Vous devez choisir parmi « linéaire », « cosinus », « cosine_with_restarts », « polynomial », « constante » et « constant_with_warmup ». :mot clé model_name : nom du modèle à utiliser pendant l’entraînement. Doit choisir parmi 'bert-base-cased', 'bert-base-uncased', 'bert-base-multilingual-cased', 'bert-base-german-cased', 'bert-large-cased', 'bert-large-uncased', 'distilbert-base-cased', 'distilbert-base-uncased', 'roberta-base', 'roberta-large', 'distilroberta-base', 'xlm-roberta-base', 'xlm-roberta-large', xlnet-base-cased' et 'xlnet-large-cased'. :mot clé number_of_epochs : nombre d’époques avec laquelle effectuer l’apprentissage. Cette valeur doit être un entier positif. :mot clé training_batch_size : taille du lot pendant l’entraînement. Cette valeur doit être un entier positif. :mot clé validation_batch_size : taille du lot pendant la validation. Cette valeur doit être un entier positif. :mot clé warmup_ratio : ratio des étapes d’entraînement totales utilisées pour un préchauffement linéaire de 0 à learning_rate. Doit être un float dans [0, 1]. :mot clé weight_decay : valeur de la décomposition de poids lorsque l’optimiseur est sgd, adam ou adamw. Il doit s’agir d’un float dans la plage [0, 1]. :return : Aucun.
set_training_parameters(*, gradient_accumulation_steps: int | None = None, learning_rate: float | None = None, learning_rate_scheduler: str | NlpLearningRateScheduler | None = None, model_name: str | None = None, number_of_epochs: int | None = None, training_batch_size: int | None = None, validation_batch_size: int | None = None, warmup_ratio: float | None = None, weight_decay: float | None = None) -> None
Paramètres
- gradient_accumulation_steps
nombre d’étapes sur lesquelles accumuler des dégradés avant un retour
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
Attributs
base_path
creation_context
Contexte de création de la ressource.
Retours
Métadonnées de création de la ressource.
Type de retour
featurization
id
ID de la ressource.
Retours
L’ID global de la ressource, un ID Azure Resource Manager (ARM).
Type de retour
inputs
limits
log_files
Fichiers de sortie de travail.
Retours
Dictionnaire des noms de journaux et des URL.
Type de retour
log_verbosity
outputs
primary_metric
search_space
status
État du travail.
Les valeurs courantes retournées sont « Exécution en cours (Running) », « Terminé (Finished) » et « Échec (Failed) ». Toutes les valeurs possibles sont les suivantes :
NotStarted : il s’agit d’un état temporaire dans lequel les objets Run côté client se trouvent avant la soumission au cloud.
Démarrage : l’exécution a commencé à être traitée dans le cloud. L’appelant a un ID d’exécution à ce stade.
Approvisionnement : le calcul à la demande est en cours de création pour une soumission de travail donnée.
Préparation : l’environnement d’exécution est en cours de préparation et se trouve dans l’une des deux étapes suivantes :
Build d’image Docker
Configuration de l’environnement Conda
Mis en file d’attente : le travail est mis en file d’attente sur la cible de calcul. Par exemple, dans BatchAI, le travail est dans un état mis en file d’attente
en attendant que tous les nœuds demandés soient prêts.
Exécution : le travail a commencé à s’exécuter sur la cible de calcul.
Finalisation : l’exécution du code utilisateur est terminée et l’exécution est en phases de post-traitement.
CancelRequested : l’annulation a été demandée pour le travail.
Terminé : l’exécution s’est terminée avec succès. Cela inclut à la fois l’exécution du code utilisateur et l’exécution
Étapes de post-traitement.
Failed (Échec) : l’exécution a échoué. En règle générale, la propriété Error d’une exécution fournit des détails sur la raison de l’échec.
Annulé : suit une demande d’annulation et indique que l’exécution a bien été annulée.
NotResponding : pour les exécutions pour lesquelles des pulsations sont activées, aucune pulsation n’a été envoyée récemment.
Retours
État du travail.
Type de retour
studio_url
Point de terminaison Azure ML Studio.
Retours
URL de la page de détails du travail.
Type de retour
sweep
task_type
Obtenir le type de tâche.
Retours
Type de tâche à exécuter. Les valeurs possibles sont les suivantes : « classification », « régression », « forecasting ».
Type de retour
test_data
training_data
training_parameters
type
validation_data
Azure SDK for Python