ForecastingJob Classe
Configuration de la tâche de prévision AutoML.
Initialisez une nouvelle tâche de prévision AutoML.
- Héritage
-
azure.ai.ml.entities._job.automl.tabular.automl_tabular.AutoMLTabularForecastingJob
Constructeur
ForecastingJob(*, primary_metric: str | None = None, forecasting_settings: ForecastingSettings | None = None, **kwargs)
Paramètres
Métrique principale à utiliser pour la sélection du modèle.
Méthodes
dump |
Vide le contenu du travail dans un fichier au format YAML. |
set_data |
Définissez la configuration des données. |
set_featurization |
Définissez la configuration de l’ingénierie des fonctionnalités. |
set_forecast_settings |
Gérer les paramètres utilisés par les tâches de prévision. |
set_limits |
Définissez des limites pour le travail. |
set_training |
Méthode permettant de configurer les paramètres liés à la formation de prévision. |
dump
Vide le contenu du travail dans un fichier au format YAML.
dump(dest: str | PathLike | IO, **kwargs) -> None
Paramètres
Chemin d’accès local ou flux de fichiers dans lequel écrire le contenu YAML. Si dest est un chemin de fichier, un nouveau fichier est créé. Si dest est un fichier ouvert, le fichier est écrit directement dans.
- kwargs
- dict
Arguments supplémentaires à passer au sérialiseur YAML.
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
set_data
Définissez la configuration des données.
set_data(*, training_data: Input, target_column_name: str, weight_column_name: str | None = None, validation_data: Input | None = None, validation_data_size: float | None = None, n_cross_validations: str | int | None = None, cv_split_column_names: List[str] | None = None, test_data: Input | None = None, test_data_size: float | None = None) -> None
Paramètres
- training_data
- Input
Données de formation.
- target_column_name
- str
Nom de colonne de la colonne cible.
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
set_featurization
Définissez la configuration de l’ingénierie des fonctionnalités.
set_featurization(*, blocked_transformers: List[BlockedTransformers | str] | None = None, column_name_and_types: Dict[str, str] | None = None, dataset_language: str | None = None, transformer_params: Dict[str, List[ColumnTransformer]] | None = None, mode: str | None = None, enable_dnn_featurization: bool | None = None) -> None
Paramètres
- blocked_transformers
- Optional[List[Union[BlockedTransformers, str]]]
Liste des noms de transformateurs à bloquer pendant la caractérisation, la valeur par défaut est None
Dictionnaire de noms de colonnes et de types de caractéristiques utilisés pour mettre à jour l’objectif des colonnes , par défaut, est None
Code ISO 639-3 à trois caractères pour les langues contenues dans le jeu de données. Les langues autres que l’anglais ne sont prises en charge que si vous utilisez le calcul avec GPU. Le language_code « mul » doit être utilisé si le jeu de données contient plusieurs langues. Pour rechercher les codes ISO 639-3 pour différentes langues, reportez-vous à https://en.wikipedia.org/wiki/List_of_ISO_639-3_codes, par défaut, aucun
- transformer_params
- Optional[Dict[str, List[ColumnTransformer]]]
Dictionnaire du transformateur et des paramètres de personnalisation correspondants , par défaut, a la valeur None
S’il faut inclure des méthodes d’ingénierie des fonctionnalités basées sur DNN, par défaut, aucun
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
set_forecast_settings
Gérer les paramètres utilisés par les tâches de prévision.
set_forecast_settings(*, time_column_name: str | None = None, forecast_horizon: str | int | None = None, time_series_id_column_names: str | List[str] | None = None, target_lags: str | int | List[int] | None = None, feature_lags: str | None = None, target_rolling_window_size: str | int | None = None, country_or_region_for_holidays: str | None = None, use_stl: str | None = None, seasonality: str | int | None = None, short_series_handling_config: str | None = None, frequency: str | None = None, target_aggregate_function: str | None = None, cv_step_size: int | None = None, features_unknown_at_forecast_time: str | List[str] | None = None) -> None
Paramètres
Nom de la colonne de temps. Ce paramètre permet de spécifier la colonne DateHeure dans les données d’entrée utilisées pour la génération de la série chronologique et la déduction de sa fréquence.
- forecast_horizon
Horizon maximal de prévision souhaité en unités de fréquence de série chronologique. La valeur par défaut est 1.
Les unités sont basées sur l’intervalle de temps de vos données d’entraînement (par ex., mensuelles, hebdomadaires) que l’analyste doit prévoir. Quand la tâche est de type prévision, ce paramètre est obligatoire. Pour plus d’informations sur la définition des paramètres de prévision, consultez Entraîner automatiquement un modèle de prévision de série chronologique.
Noms des colonnes utilisées pour regrouper une série chronologique. Permet de créer plusieurs séries. Si les noms de colonnes d’ID de série chronologique ne sont pas définis ou si les colonnes d’identificateur spécifiées n’identifient pas toutes les séries dans le jeu de données, les identificateurs de série chronologique sont automatiquement créés pour votre jeu de données.
- target_lags
Nombre de périodes passées à décaler par rapport à la colonne cible. Par défaut, les latences sont désactivées.
Pendant la prévision, ce paramètre correspond au nombre de lignes dont les valeurs cibles doivent être décalées en fonction de la fréquence des données. Ce paramètre est représenté sous la forme d’une liste ou d’un entier unique. Un décalage est nécessaire en l’absence de correspondance ou de corrélation par défaut des relations entre les variables indépendantes et la variable dépendante. Par exemple, quand vous essayez de prévoir la demande d’un produit, la demande mensuelle peut dépendre du prix de certaines matières premières trois mois auparavant. Dans ce cas, vous pouvez appliquer un décalage négatif de trois mois à la cible (la demande) afin que le modèle soit entraîné sur la relation appropriée. Pour plus d’informations, consultez Entraîner automatiquement un modèle de prévision de série chronologique.
Remarque sur la détection automatique des décalages cibles et de la taille de fenêtre dynamique. Consultez les commentaires correspondants dans la section de la fenêtre dynamique. Nous utilisons l’algorithme suivant pour détecter la latence cible optimale et la taille de fenêtre dynamique.
Estimez l’ordre de latence maximale pour la sélection de la fonctionnalité de consultation. Dans notre cas, il s’agit du nombre de périodes jusqu’à la granularité de la fréquence suivante, c.-à-d. si la fréquence est quotidienne, il s’agit d’une semaine (7), s’il s’agit d’une semaine, il s’agit du mois (4). Les valeurs multipliées par deux sont les plus grandes valeurs possibles des latences/fenêtres dynamiques. Dans nos exemples, nous examinerons l’ordre de latence maximale de 14 et 8 respectivement.
Créez une série désaisonnière en ajoutant des composants de tendance et des restes. Ce sera utilisé à l’étape suivante.
Estimez la fonction d'auto-corrélation partielle (PACF) sur les données de (2) et recherchez les points où l'auto-corrélation est significative, c'est-à-dire que sa valeur absolue est supérieure à 1,96/racine carrée (valeur maximale du retard), ce qui correspond à une signification de 95 %.
Si tous les points sont significatifs, nous considérons qu’il s’agit d’un caractère saisonnier fort et que vous ne créez pas de fonctionnalités de recherche.
Nous balayons les valeurs PACF à partir du début et la valeur avant la première corrélation insignifiante automatique désignera la latence. Si le premier élément significatif (la valeur corrélée elle-même) est suivi de manière non significative, le décalage sera 0 et nous n’utiliserons pas de fonctionnalités de recherche.
Indicateur de génération de décalages pour les caractéristiques numériques avec « auto » ou None.
Nombre de périodes passées utilisées pour créer une moyenne de fenêtres dynamiques de la colonne cible.
Pendant la prévision, ce paramètre correspond à n périodes historiques à utiliser pour générer les valeurs prévues, < = taille du jeu d’entraînement. En cas d’omission, n est la taille du jeu d’apprentissage complet. Spécifiez ce paramètre si vous souhaitez prendre en compte seulement une partie des données historiques pour l’entraînement du modèle. Si la valeur est définie sur « auto », la fenêtre dynamique est estimée comme dernière valeur où le PACF est plus le seuil de précision. Veuillez consulter la section target_lags pour plus de détails.
Pays/région utilisé pour générer les caractéristiques de congés. Il doit s’agir des codes de pays/région à deux lettres au format ISO 3166, par exemple, « US » ou « GB ».
- use_stl
Configurez la décomposition STL de la colonne cible de série chronologique. use_stl peut prendre trois valeurs : None (valeur par défaut) : aucune décomposition STL, season : génère uniquement le composant de saison, et season_trend : génère des composants de saison et de tendance.
Définissez le caractère saisonnier de la série chronologique sous la forme d’un entier multiple de la fréquence de la série. Si la saisonnalité est définie sur « auto », elle est déduite. Si la valeur est None, la série chronologique est supposée non saisonnière, ce qui équivaut à caractère saisonnier = 1.
- short_series_handling_config
Paramètre définissant la manière dont AutoML doit gérer les séries chronologiques courtes.
Valeurs possibles : « auto » (par défaut), « Remplir », « Annuler » et Aucune.
- auto short series sera rembourré s’il n’y a pas de série longue,
sinon, les séries courtes seront supprimées.
- remplir toutes les séries courtes sont remplies.
- annuler toutes les séries courtes sont annulées.
- Aucune les séries courtes ne sont pas modifiées.
Si la valeur est « remplir », la table est remplie avec les zéros et les valeurs vides pour les régresseurs et les valeurs aléatoires pour la cible avec la moyenne égale à la valeur médiane cible pour l’ID de série chronologique donné. Si la valeur médiane est supérieure ou égale à zéro, la valeur remplie minimale est découpée par zéro : Entrée :
Date
numeric_value
string
cible
2020-01-01
23
green
55
Sortie en supposant que le nombre minimal de valeurs est de quatre :
Date
numeric_value
string
cible
2019-12-29
0
N/D
55.1
2019-12-30
0
N/D
55.6
2019-12-31
0
N/D
54.5
2020-01-01
23
green
55
Remarque : Nous avons deux paramètres short_series_handling_configuration et legacy short_series_handling. Lorsque les deux paramètres sont définis, nous les synchronisons comme indiqué dans le tableau ci-dessous (short_series_handling_configuration et short_series_handling par souci de concision sont marqués respectivement comme handling_configuration et handling).
Manipulation
handlingconfiguration
gestion résultante
resultinghandlingconfiguration
True
auto
True
auto
True
Pad
True
auto
True
drop
True
auto
True
None
False
None
False
auto
False
None
False
Pad
False
None
False
drop
False
None
False
None
False
None
- frequency
Fréquence de prévision.
Lors d'une prévision, ce paramètre représente la période pour laquelle la prévision est souhaitée, par exemple tous les jours, toutes les semaines, tous les ans, etc. La fréquence de prévision correspond à la fréquence du jeu de données par défaut. Vous pouvez la définir sur une valeur supérieure (mais pas inférieure) à la fréquence du jeu de données. Nous allons agréger les données et générer les résultats à la fréquence prévue. Par exemple, pour les données quotidiennes, vous pouvez définir une fréquence quotidienne, hebdomadaire ou mensuelle, mais pas toutes les heures. La fréquence doit correspondre à un alias de décalage Pandas. Pour plus d’informations, consultez la documentation Pandas : https://pandas.pydata.org/pandas-docs/stable/user_guide/timeseries.html#dateoffset-objects
- target_aggregate_function
Fonction à utiliser pour agréger la colonne cible de la série chronologique de façon à ce qu’elle soit conforme à une fréquence spécifiée par l’utilisateur. Si target_aggregation_function est défini, mais que le paramètre freq ne l’est pas, une erreur est générée. Les fonctions d’agrégation cibles possibles sont les suivantes : « sum », « max », « min » et « mean ».
Les valeurs de la colonne cible sont agrégées en fonction de l’opération spécifiée. En général, la somme est appropriée pour la plupart des scénarios.
Les colonnes de prédiction numériques dans vos données sont agrégées par somme, moyenne, valeur minimale et valeur maximale. Par conséquent, le ML automatisé génère de nouvelles colonnes suffixées avec le nom de la fonction d’agrégation et applique l’opération d’agrégation sélectionnée.
Pour les colonnes de prédiction catégoriques, les données sont agrégées par mode, la catégorie la plus visible dans la fenêtre.
Les colonnes de prédiction de date sont agrégées par valeur minimale, valeur maximale et mode.
Freq
target_aggregation_function
Mécanisme de correction de la régularité des données
Aucun (par défaut)
Aucun (par défaut)
L’agrégation n’est pas appliquée. Si la fréquence valide ne peut pas être déterminée, l’erreur est déclenchée.
Une valeur
Aucun (par défaut)
L’agrégation n’est pas appliquée. Si le nombre de points de donnéescomplint togiven frequencygrid estless, alors 90%, ces points seront supprimés,sinon l’erreur sera déclenchée.
Aucun (par défaut)
Fonction d’agrégation
Erreur à propos de la demande de fréquenceparameter israisé.
Une valeur
Fonction d’agrégation
Agréger à la fréquence à l’aide deprovidedaggregationfunction.
Nombre de périodes entre origin_time d’un repli de validation croisée et le repli suivant. Par exemple, si n_step = 3 pour les données quotidiennes, l’heure d’origine de chaque repli sera espacée de trois jours.
Colonnes de fonctionnalité disponibles pour l’entraînement, mais inconnues au moment de la prévision/inférence. Si features_unknown_at_forecast_time est défini sur une liste vide, il est supposé que toutes les colonnes de fonctionnalité du jeu de données sont connues au moment de l’inférence. Si ce paramètre n’est pas défini, la prise en charge des fonctionnalités futures n’est pas activée.
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
set_limits
Définissez des limites pour le travail.
set_limits(*, enable_early_termination: bool | None = None, exit_score: float | None = None, max_concurrent_trials: int | None = None, max_cores_per_trial: int | None = None, max_nodes: int | None = None, max_trials: int | None = None, timeout_minutes: int | None = None, trial_timeout_minutes: int | None = None) -> None
Paramètres
Si vous souhaitez activer l’arrêt anticipé si le score ne s’améliore pas à court terme, la valeur par défaut est None.
Logique d’arrêt anticipé :
Aucun arrêt anticipé pour les 20 premières itérations (repères).
La fenêtre d’arrêt anticipé commence à la 21ème itération et recherche les early_stopping_n_iters itérations
(actuellement défini sur 10). Cela signifie que la première itération où l’arrêt peut se produire est la 31ème.
AutoML planifie toujours 2 itérations d’ensemble APRÈS l’arrêt précoce, ce qui peut entraîner des scores plus élevés.
L’arrêt anticipé est déclenché si la valeur absolue du meilleur score calculé est la même pour les dernières
early_stopping_n_iters itérations, autrement dit, s’il n’y a pas d’amélioration du score pour early_stopping_n_iters itérations.
Score cible de l’expérience. L’expérimentation se termine une fois ce score atteint. S’il n’est pas spécifié (aucun critère), l’expérimentation s’exécute jusqu’à ce que la métrique principale n’affiche plus de progression. Pour plus d’informations sur les critères de sortie, consultez cet article , la valeur par défaut est None
Il s’agit du nombre maximal d’itérations qui seraient exécutées en parallèle. La valeur par défaut est 1.
- Les clusters AmlCompute prennent en charge une itération exécutée par nœud.
Quand plusieurs exécutions parentes d’expérience AutoML sont effectuées en parallèle sur un seul cluster AmlCompute, la somme des valeurs max_concurrent_trials
de toutes les expériences doit être inférieure ou égale au nombre maximal de nœuds. Sinon, les exécutions sont mises en file d’attente jusqu’à ce que les nœuds soient disponibles.
- DSVM prend en charge plusieurs itérations par nœud.
max_concurrent_trials
Devrait
être inférieur ou égal au nombre de cœurs sur la machine virtuelle DSVM. Quand plusieurs exécutions d’expérience sont effectuées en parallèle sur une seule DSVM, la somme des valeurs max_concurrent_trials
de toutes les expériences doit être inférieure ou égale au nombre maximal de nœuds.
- Databricks :
max_concurrent_trials
doit être inférieur ou égal au nombre de
nœuds worker sur Databricks.
max_concurrent_trials
ne s’applique pas aux exécutions locales. Auparavant, ce paramètre était appelé concurrent_iterations
.
Nombre maximal de threads à utiliser pour une itération d’entraînement donnée. Valeurs acceptables :
Supérieur à 1 et inférieur ou égal au nombre maximal de cœurs sur la cible de calcul.
Égal à -1, ce qui signifie qu’il faut utiliser tous les cœurs possibles par itération et par exécution enfant.
Égal à 1, valeur par défaut.
[Expérimental] Nombre maximal de nœuds à utiliser pour l’entraînement distribué.
Pour la prévision, chaque modèle est entraîné à l’aide de nœuds max(2, int(max_nodes / max_concurrent_trials)).
Pour la classification/régression, chaque modèle est entraîné à l’aide de nœuds max_nodes.
Remarque : ce paramètre est en préversion publique et peut changer à l’avenir.
Nombre total de combinaisons différentes d’algorithmes et de paramètres à tester pendant une expérience de ML automatisé. Si non spécifié, la valeur par défaut est 1000 itérations.
Durée maximale en minutes pendant laquelle toutes les itérations combinées peuvent être effectuées avant que l’expérience ne se termine. Si la valeur n’est pas spécifiée, le délai d’expiration par défaut de l’expérience est de 6 jours. Pour spécifier un délai d’attente inférieur ou égal à 1 heure, assurez-vous que la taille de votre jeu de données n’est pas supérieure à 10 000 000 (colonne lignes et fois colonne) ou qu’une erreur s’affiche par défaut sur Aucun
Durée d’exécution maximale (en minutes) de chaque itération avant de s’arrêter. Si ce n’est pas spécifié, une valeur de 1 mois ou 43200 minutes est utilisée, la valeur par défaut est None
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
set_training
Méthode permettant de configurer les paramètres liés à la formation de prévision.
set_training(*, enable_onnx_compatible_models: bool | None = None, enable_dnn_training: bool | None = None, enable_model_explainability: bool | None = None, enable_stack_ensemble: bool | None = None, enable_vote_ensemble: bool | None = None, stack_ensemble_settings: StackEnsembleSettings | None = None, ensemble_model_download_timeout: int | None = None, allowed_training_algorithms: List[str] | None = None, blocked_training_algorithms: List[str] | None = None, training_mode: str | TrainingMode | None = None) -> None
Paramètres
- enable_onnx_compatible_models
Indique s’il faut activer ou désactiver l’application des modèles compatibles ONNX. La valeur par défaut est False. Pour plus d’informations sur Open Neural Network Exchange (ONNX) et Azure Machine Learning, consultez cet article.
Indique s’il faut inclure des modèles basés sur DNN lors de la sélection du modèle. Toutefois, la valeur par défaut est True pour les tâches DNN NLP et False pour toutes les autres tâches AutoML.
- enable_model_explainability
Indique s’il faut activer l’explication du meilleur modèle AutoML à la fin de toutes les itérations d’entraînement AutoML. Pour plus d’informations, consultez Interprétabilité : explications des modèles dans le Machine Learning automatisé. , a la valeur par défaut None
- enable_stack_ensemble
Indique s’il faut activer ou désactiver l’itération StackEnsemble. Si l’indicateur enable_onnx_compatible_models est défini, l’itération StackEnsemble est désactivée. De même, pour les tâches de série chronologique, l’itération StackEnsemble est désactivée par défaut, afin d’éviter les risques de sur-ajustement en raison de l’utilisation d’un petit jeu d’entraînement dans l’ajustement du méta-apprenant. Pour plus d’informations sur les ensembles, consultez Configuration d’ensemble , valeur par défaut : Aucun.
- enable_vote_ensemble
Indique s’il faut activer ou désactiver l’itération VotingEnsemble. Pour plus d’informations sur les ensembles, consultez Configuration d’ensemble , valeur par défaut : Aucun.
- stack_ensemble_settings
- Optional[StackEnsembleSettings]
Paramètres pour l’itération StackEnsemble, la valeur par défaut est None
Pendant la génération de modèles VotingEnsemble et StackEnsemble, plusieurs modèles ajustés des exécutions enfants précédentes sont téléchargés. Configurez ce paramètre avec une valeur supérieure à 300 secondes. Si plus de temps est nécessaire, la valeur par défaut est None
Liste des noms de modèle à rechercher pour une expérience. S’ils ne sont pas spécifiés, tous les modèles pris en blocked_training_algorithms
charge pour la tâche sont utilisés moins tous les modèles TensorFlow spécifiés ou dépréciés, la valeur par défaut est None
Liste d’algorithmes à ignorer pour une expérience, la valeur par défaut est None
- training_mode
[Expérimental] Mode d’entraînement à utiliser. Les valeurs possibles sont :
distributed : active l’entraînement distribué pour les algorithmes pris en charge.
non_distributed- désactive l’entraînement distribué.
auto- Actuellement, il est identique à non_distributed. À l’avenir, cela pourrait changer.
Remarque : Ce paramètre est en préversion publique et peut changer à l’avenir.
Exceptions
Déclenché si dest est un chemin de fichier et que le fichier existe déjà.
Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.
Attributs
base_path
Chemin d’accès de base de la ressource.
Retours
Chemin d’accès de base de la ressource.
Type de retour
creation_context
Contexte de création de la ressource.
Retours
Métadonnées de création pour la ressource.
Type de retour
featurization
Obtenez les paramètres de caractérisation tabulaire pour le travail AutoML.
Retours
Paramètres de caractérisation tabulaire pour le travail AutoML
Type de retour
forecasting_settings
Retourne les paramètres de prévision.
Retours
paramètres de prévision.
Type de retour
id
ID de la ressource.
Retours
ID global de la ressource, id Azure Resource Manager (ARM).
Type de retour
inputs
limits
Obtenez les limites tabulaires du travail AutoML.
Retours
Limites tabulaires pour le travail AutoML
Type de retour
log_files
Fichiers de sortie de travail.
Retours
Dictionnaire des noms de journaux et des URL.
Type de retour
log_verbosity
Obtenez le détail du journal pour le travail AutoML.
Retours
détail du journal pour le travail AutoML
Type de retour
outputs
primary_metric
Retourne la métrique principale à utiliser pour la sélection du modèle.
Retours
Métrique principale pour la sélection du modèle.
Type de retour
status
État du travail.
Les valeurs courantes retournées sont « Exécution en cours (Running) », « Terminé (Finished) » et « Échec (Failed) ». Toutes les valeurs possibles sont les suivantes :
NotStarted : il s’agit d’un état temporaire dans lequel se trouvent les objets Run côté client avant la soumission cloud.
Démarrage : l’exécution a commencé à être traitée dans le cloud. L’appelant a un ID d’exécution à ce stade.
Approvisionnement : le calcul à la demande est en cours de création pour une soumission de travail donnée.
Préparation : l’environnement d’exécution est en cours de préparation et se trouve dans l’une des deux étapes suivantes :
Build d’image Docker
Configuration de l’environnement Conda
Mis en file d’attente : le travail est mis en file d’attente sur la cible de calcul. Par exemple, dans BatchAI, le travail est dans un état mis en file d’attente
en attendant que tous les nœuds demandés soient prêts.
En cours d’exécution : le travail a commencé à s’exécuter sur la cible de calcul.
Finalisation : l’exécution du code utilisateur est terminée et l’exécution est en phase de post-traitement.
CancelRequested : l’annulation a été demandée pour le travail.
Terminé : l’exécution s’est terminée avec succès. Cela inclut à la fois l’exécution et l’exécution du code utilisateur
Étapes de post-traitement.
Failed (Échec) : l’exécution a échoué. En règle générale, la propriété Error d’une exécution fournit des détails sur la raison de l’échec.
Annulé : suit une demande d’annulation et indique que l’exécution a bien été annulée.
NotResponding : pour les exécutions pour lesquelles des pulsations sont activées, aucune pulsation n’a été envoyée récemment.
Retours
État du travail.
Type de retour
studio_url
Point de terminaison Azure ML Studio.
Retours
URL de la page des détails du travail.
Type de retour
task_type
Obtenir le type de tâche.
Retours
Type de tâche à exécuter. Les valeurs possibles sont les suivantes : « classification », « régression », « forecasting ».
Type de retour
test_data
training
Retourne les paramètres d’entraînement des prévisions.
Retours
paramètres d’entraînement.
Type de retour
training_data
type
validation_data
Azure SDK for Python