Référence sur l’API AutoML Python
Cet article décrit l’API Python AutoML, qui fournit des méthodes pour démarrer la classification, la régression et la prévision des exécutions AutoML. Chaque appel de méthode forme un ensemble de modèles et génère un bloc-notes d’évaluation pour chaque modèle.
Pour plus d’informations sur AutoML, notamment une option d’interface utilisateur à faible code, consultez Qu’est-ce que AutoML ?.
Classer
La méthode databricks.automl.classify
configure une exécution AutoML pour former un modèle de classification.
Remarque
Le paramètre max_trials
est déconseillé dans Databricks Runtime 10.4 ML et n’est pas pris en charge dans Databricks Runtime 11.0 ML et versions ultérieures. Utilisez timeout_minutes
pour contrôler la durée d’une exécution de AutoML.
databricks.automl.classify(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
primary_metric: str = "f1",
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
pos_label: Optional[Union[int, bool, str]] = None, # <DBR> 11.1 ML and above
time_col: Optional[str] = None,
split_col: Optional[str] = None, # <DBR> 15.3 ML and above
sample_weight_col: Optional[str] = None # <DBR> 15.4 ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Classifier les paramètres
Nom du paramètre | Type | Description |
---|---|---|
dataset |
str , , pandas.DataFrame pyspark.DataFrame , ,pyspark.sql.DataFrame |
Nom de la table d’entrée ou DataFrame qui contient des fonctionnalités d’entraînement et une cible. Le nom de la table peut être au format « <database_name>.<table_name> » ou «<schema_name>.<table_name> » pour les tables de catalogue non Unity. |
target_col |
str |
Nom de colonne de l’étiquette cible. |
primary_metric |
str |
Métrique utilisée pour évaluer et classer les performances du modèle. Mesures prises en charge pour la régression : « R2 » (par défaut), « Mae », « RMSE », « MSE » Mesures prises en charge pour la classification : « F1 » (par défaut), « log_loss », « précision », « précision », « roc_auc » |
data_dir |
str de format dbfs:/<folder-name> |
facultatif. Chemin d’accès utilisé pour stocker le jeu de données de formation. Ce chemin d’accès est visible pour les nœuds de pilote et de travail. Databricks recommande de laisser ce champ vide pour qu’AutoML puisse enregistrer le jeu de données d’apprentissage comme artifact MLflow. Si un chemin d’accès personnalisé est spécifié, le jeu de données n’hérite pas des autorisations d’accès de l’expérience AutoML. |
experiment_dir |
str |
facultatif. Chemin d’accès au répertoire de l’espace de travail pour enregistrer les blocs-notes et les expériences générés. Valeur par défaut : /Users/<username>/databricks_automl/ |
experiment_name |
str |
facultatif. Nom de l’expérience MLflow créée par AutoML. Par défaut : Le nom est généré automatiquement. |
exclude_cols |
List[str] |
facultatif. Liste des colonnes à ignorer lors des calculs AutoML. Par défaut : [] |
exclude_frameworks |
List[str] |
facultatif. Liste des infrastructures d’algorithmes que AutoML ne doit pas prendre en compte au fur et à mesure qu’il développe des modèles. Valeurs possibles : liste vide, ou un ou plusieurs « sklearn », « lightgbm », « xgboost ». Valeur par défaut : [] (toutes les infrastructures sont prises en compte) |
feature_store_lookups |
List[Dict] |
facultatif. Liste des dictionnaires qui représentent les caractéristiques de Feature Store pour l’augmentation des données. Les clés valides dans chaque dictionnaire sont les suivantes : - table_name (str) : obligatoire. Nom de la table de caractéristiques.- lookup_key (liste ou str) : obligatoire. Noms de colonnes à utiliser sous forme de clé au moment de la jointure de la table de caractéristiques aux données passées dans le param dataset . L’ordre des noms de colonnes doit correspondre à l’ordre des clés primaires de la table de caractéristiques.- timestamp_lookup_key (str) : obligatoire si la table spécifiée est une table de fonctionnalités de série chronologique . Nom de colonne à utiliser au moment de l’exécution d’une recherche d’un instant dans le passé dans la table de caractéristiques avec les données passées dans le paramètre dataset .Par défaut : [] |
imputers |
Dict[str, Union[str, Dict[str, Any]]] |
facultatif. Dictionnaire où chaque clé est un nom de colonne, et chaque valeur est une chaîne ou un dictionnaire décrivant la stratégie d’imputation. S’il est spécifié sous forme de chaîne, la valeur doit être « Mean », « median » ou « most_frequent ». Pour effectuer une imputation avec une valeur connue, spécifiez cette valeur en tant que dictionnaire {"strategy": "constant", "fill_value": <desired value>} . Vous pouvez également spécifier des options de chaîne en tant que dictionnaires, par exemple {"strategy": "mean"} .Si aucune stratégie d’imputation n’est fournie pour une colonne, AutoML sélectionne une stratégie par défaut en fonction du type et du contenu de la colonne. Si vous spécifiez une méthode d’imputation autre que celle par défaut, AutoML n’effectue pas la détection de type sémantique. Valeur par défaut : {} |
pos_label |
Union[int, bool, str] |
(Classification uniquement) Classe positive. Cela est utile pour calculer des métriques telles que la précision et le rappel. Doit uniquement être spécifié pour les problèmes de classification binaire. |
time_col |
str |
Disponible dans Databricks Runtime 10.1 et ultérieur. facultatif. Nom de colonne pour une colonne d’heure. S’il est fourni, AutoML essaie de fractionner le jeu de données en jeux d’apprentissage, de validation et de test par ordre chronologique, en utilisant les points les plus anciens comme données d’apprentissage et les points les plus récents en tant que jeu de test. Les types de colonne acceptés sont l'horodatage et les entiers. Avec Databricks Runtime 10.2 ML et versions ultérieures, les colonnes de chaîne sont également prises en charge. Si le type de colonne est String, AutoML essaie de le convertir en timestamp à l’aide de la détection sémantique. Si la conversion échoue, l’exécution de AutoML échoue. |
split_col |
str |
facultatif. Nom de colonne pour une colonne fractionnée. Disponible uniquement dans Databricks Runtime 15.3 ML et les versions ultérieures pour les flux de travail d’API. Si elle est fournie, AutoML tente de fractionner les jeux d’apprentissage/validation/test par valeurs spécifiées par l’utilisateur, et cette colonne est automatiquement exclue des fonctionnalités de formation. Le type de colonne accepté est chaîne. La valeur de chaque entrée de cette colonne doit être l’une des suivantes : « train », « validate » ou « test ». |
sample_weight_col |
str |
Disponible dans Databricks Runtime 15.4 ML et versions ultérieures pour les flux de travail d’API de classification. facultatif. Nom de colonne dans le jeu de données qui contient les poids des exemples pour chaque ligne. La classification prend en charge les poids d’échantillons par classe. Ces poids ajustent l’importance de chaque classe pendant l’entraînement du modèle. Chaque échantillon d’une classe doit avoir le même poids d’échantillon, et les poids doivent être des valeurs décimales ou entières non négatives, comprises entre 0 et 10 000. Les classes avec des poids d’échantillon plus élevés sont considérées comme plus importantes, et ont une plus grande influence sur l’algorithme d’entraînement. Si cette colonne n’est pas spécifiée, toutes les classes sont supposées avoir un poids égal. |
max_trials |
int |
facultatif. Nombre maximal d’essais à exécuter. Ce paramètre est disponible dans Databricks Runtime 10.5 ML et les versions antérieures, mais est déprécié à compter de Databricks Runtime 10.3 ML. Dans Databricks Runtime 11.0 ML et les versions ultérieures, ce paramètre n’est pas pris en charge. Valeur par défaut : 20 Si timeout_minutes = None, AutoML exécute le nombre maximal d’essais. |
timeout_minutes |
int |
facultatif. Durée d’attente maximale pour l’exécution des versions d’évaluation de AutoML. Des délais d’attente plus longs permettent à AutoML d’exécuter plus d’essais et d’identifier un modèle avec une meilleure précision. Par défaut : 120 minutes Valeur minimale : 5 minutes Une erreur est signalée si le délai d’expiration est trop faible pour permettre l’exécution d’au moins une version d’évaluation. |
Régression
La méthode databricks.automl.regress
configure une exécution AutoML pour former un modèle de régression. Cette méthode retourne un objet AutoMLSummary.
Remarque
Le paramètre max_trials
est déconseillé dans Databricks Runtime 10.4 ML et n’est pas pris en charge dans Databricks Runtime 11.0 ML et versions ultérieures. Utilisez timeout_minutes
pour contrôler la durée d’une exécution de AutoML.
databricks.automl.regress(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
primary_metric: str = "r2",
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
time_col: Optional[str] = None,
split_col: Optional[str] = None, # <DBR> 15.3 ML and above
sample_weight_col: Optional[str] = None, # <DBR> 15.3 ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Paramètres de régression
Nom du paramètre | Type | Description |
---|---|---|
dataset |
str , , pandas.DataFrame pyspark.DataFrame , ,pyspark.sql.DataFrame |
Nom de la table d’entrée ou DataFrame qui contient des fonctionnalités d’entraînement et une cible. Le nom de la table peut être au format « <database_name>.<table_name> » ou «<schema_name>.<table_name> » pour les tables de catalogue non Unity. |
target_col |
str |
Nom de colonne de l’étiquette cible. |
primary_metric |
str |
Métrique utilisée pour évaluer et classer les performances du modèle. Mesures prises en charge pour la régression : « R2 » (par défaut), « Mae », « RMSE », « MSE » Mesures prises en charge pour la classification : « F1 » (par défaut), « log_loss », « précision », « précision », « roc_auc » |
data_dir |
str de format dbfs:/<folder-name> |
facultatif. Chemin d’accès utilisé pour stocker le jeu de données de formation. Ce chemin d’accès est visible pour les nœuds de pilote et de travail. Databricks recommande de laisser ce champ vide pour qu’AutoML puisse enregistrer le jeu de données d’apprentissage comme artifact MLflow. Si un chemin d’accès personnalisé est spécifié, le jeu de données n’hérite pas des autorisations d’accès de l’expérience AutoML. |
experiment_dir |
str |
facultatif. Chemin d’accès au répertoire de l’espace de travail pour enregistrer les blocs-notes et les expériences générés. Valeur par défaut : /Users/<username>/databricks_automl/ |
experiment_name |
str |
facultatif. Nom de l’expérience MLflow créée par AutoML. Par défaut : Le nom est généré automatiquement. |
exclude_cols |
List[str] |
facultatif. Liste des colonnes à ignorer lors des calculs AutoML. Par défaut : [] |
exclude_frameworks |
List[str] |
facultatif. Liste des infrastructures d’algorithmes que AutoML ne doit pas prendre en compte au fur et à mesure qu’il développe des modèles. Valeurs possibles : liste vide, ou un ou plusieurs « sklearn », « lightgbm », « xgboost ». Valeur par défaut : [] (toutes les infrastructures sont prises en compte) |
feature_store_lookups |
List[Dict] |
facultatif. Liste des dictionnaires qui représentent les caractéristiques de Feature Store pour l’augmentation des données. Les clés valides dans chaque dictionnaire sont les suivantes : - table_name (str) : obligatoire. Nom de la table de caractéristiques.- lookup_key (liste ou str) : obligatoire. Noms de colonnes à utiliser sous forme de clé au moment de la jointure de la table de caractéristiques aux données passées dans le param dataset . L’ordre des noms de colonnes doit correspondre à l’ordre des clés primaires de la table de caractéristiques.- timestamp_lookup_key (str) : obligatoire si la table spécifiée est une table de fonctionnalités de série chronologique . Nom de colonne à utiliser au moment de l’exécution d’une recherche d’un instant dans le passé dans la table de caractéristiques avec les données passées dans le paramètre dataset .Par défaut : [] |
imputers |
Dict[str, Union[str, Dict[str, Any]]] |
facultatif. Dictionnaire où chaque clé est un nom de colonne, et chaque valeur est une chaîne ou un dictionnaire décrivant la stratégie d’imputation. S’il est spécifié sous forme de chaîne, la valeur doit être « Mean », « median » ou « most_frequent ». Pour effectuer une imputation avec une valeur connue, spécifiez cette valeur en tant que dictionnaire {"strategy": "constant", "fill_value": <desired value>} . Vous pouvez également spécifier des options de chaîne en tant que dictionnaires, par exemple {"strategy": "mean"} .Si aucune stratégie d’imputation n’est fournie pour une colonne, AutoML sélectionne une stratégie par défaut en fonction du type et du contenu de la colonne. Si vous spécifiez une méthode d’imputation autre que celle par défaut, AutoML n’effectue pas la détection de type sémantique. Valeur par défaut : {} |
time_col |
str |
Disponible dans Databricks Runtime 10.1 et ultérieur. facultatif. Nom de colonne pour une colonne d’heure. S’il est fourni, AutoML essaie de fractionner le jeu de données en jeux d’apprentissage, de validation et de test par ordre chronologique, en utilisant les points les plus anciens comme données d’apprentissage et les points les plus récents en tant que jeu de test. Les types de colonne acceptés sont l'horodatage et les entiers. Avec Databricks Runtime 10.2 ML et versions ultérieures, les colonnes de chaîne sont également prises en charge. Si le type de colonne est String, AutoML essaie de le convertir en timestamp à l’aide de la détection sémantique. Si la conversion échoue, l’exécution de AutoML échoue. |
split_col |
str |
facultatif. Nom de colonne pour une colonne fractionnée. Disponible uniquement dans Databricks Runtime 15.3 ML et les versions ultérieures pour les flux de travail d’API. Si elle est fournie, AutoML tente de fractionner les jeux d’apprentissage/validation/test par valeurs spécifiées par l’utilisateur, et cette colonne est automatiquement exclue des fonctionnalités de formation. Le type de colonne accepté est chaîne. La valeur de chaque entrée de cette colonne doit être l’une des suivantes : « train », « validate » ou « test ». |
sample_weight_col |
str |
Disponible dans Databricks Runtime 15.3 ML et versions ultérieures pour les flux de travail d’API de régression. facultatif. Nom de colonne dans le jeu de données qui contient les poids des exemples pour chaque ligne. Ces poids ajustent l’importance de chaque ligne pendant la formation du modèle. Les poids doivent être des valeurs décimales ou entières non négatives, comprises entre 0 et 10 000. Les lignes avec des poids d’échantillon plus élevés sont considérées comme plus importantes et ont une plus grande influence sur l’algorithme de formation. Si cette colonne n’est pas spécifiée, toutes les lignes sont supposées avoir un poids égal. |
max_trials |
int |
facultatif. Nombre maximal d’essais à exécuter. Ce paramètre est disponible dans Databricks Runtime 10.5 ML et les versions antérieures, mais est déprécié à compter de Databricks Runtime 10.3 ML. Dans Databricks Runtime 11.0 ML et les versions ultérieures, ce paramètre n’est pas pris en charge. Valeur par défaut : 20 Si timeout_minutes = None, AutoML exécute le nombre maximal d’essais. |
timeout_minutes |
int |
facultatif. Durée d’attente maximale pour l’exécution des versions d’évaluation de AutoML. Des délais d’attente plus longs permettent à AutoML d’exécuter plus d’essais et d’identifier un modèle avec une meilleure précision. Par défaut : 120 minutes Valeur minimale : 5 minutes Une erreur est signalée si le délai d’expiration est trop faible pour permettre l’exécution d’au moins une version d’évaluation. |
Prévision
La méthode databricks.automl.forecast
configure une exécution AutoML pour la formation d’un modèle de prévision. Cette méthode retourne un objet AutoMLSummary.
Pour utiliser la ARIMA automatique, la série chronologique doit avoir une fréquence régulière (autrement dit, l’intervalle entre deux points quelconques doit être le même dans toute la série chronologique). La fréquence doit correspondre à l’unité de fréquence spécifiée dans l’appel d’API. AutoML gère les étapes de temps manquantes en remplissant ces valeurs avec la valeur précédente.
databricks.automl.forecast(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
time_col: str,
primary_metric: str = "smape",
country_code: str = "US", # <DBR> 12.0 ML and above
frequency: str = "D",
horizon: int = 1,
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None,
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_frameworks: Optional[List[str]] = None,
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 12.2 LTS ML and above
identity_col: Optional[Union[str, List[str]]] = None,
sample_weight_col: Optional[str] = None, # <DBR> 16.0 ML and above
output_database: Optional[str] = None, # <DBR> 10.5 ML and above
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Paramètres des prévisions
Nom du paramètre | Type | Description |
---|---|---|
dataset |
str , , pandas.DataFrame pyspark.DataFrame , ,pyspark.sql.DataFrame |
Nom de la table d’entrée ou DataFrame qui contient des fonctionnalités d’entraînement et une cible. Le nom de la table peut être au format « .. » ou « . » pour les tables non Unity Catalog |
target_col |
str |
Nom de colonne de l’étiquette cible. |
time_col |
str |
Nom de la colonne de temps pour la prévision. |
primary_metric |
str |
Métrique utilisée pour évaluer et classer les performances du modèle. Mesures prises en charge : « smape » (par défaut), « mse », « rmse », « mae » ou « mdape ». |
country_code |
str |
Disponible dans Databricks Runtime 12.0 ML et les versions ultérieures. Pris en charge uniquement par le modèle de prévision Prophet. facultatif. Code du pays à deux lettres, qui indique les jours fériés du pays que le modèle de prévision doit utiliser. Pour ignorer les jours fériés, affectez une chaîne vide ("") à ce paramètre. Pays pris en charge. Par défaut : US (jours fériés aux États-Unis). |
frequency |
str |
Fréquence de la série chronologique pour les prévisions. Il s’agit de la période avec laquelle les événements sont supposés se produire. Le paramètre par défaut est « D », pour données quotidiennes. Veillez à modifier le paramètre si vos données ont une fréquence différente. Valeurs possibles : “W” (semaines) « D »/« jours »/« jour » « heures »/« heure »/« hr »/« h » "m"/"minute"/"min"/"minutes"/"T" « S »/« secondes »/« sec »/« seconde » Les éléments suivants sont uniquement disponibles avec Databricks Runtime 12.0 ML et les versions ultérieures : « M » / « month » / « months » « Q » / « quarter » / « quarters » « Y » / « year » / « years » Valeur par défaut : « D » |
horizon |
int |
Nombre de périodes dans le futur pour lesquelles les prévisions doivent être retournées. Les unités sont la fréquence de la série temporelle. Valeur par défaut : 1. |
data_dir |
str de format dbfs:/<folder-name> |
facultatif. Chemin d’accès utilisé pour stocker le jeu de données de formation. Ce chemin d’accès est visible pour les nœuds de pilote et de travail. Databricks recommande de laisser ce champ vide pour qu’AutoML puisse enregistrer le jeu de données d’apprentissage comme artifact MLflow. Si un chemin d’accès personnalisé est spécifié, le jeu de données n’hérite pas des autorisations d’accès de l’expérience AutoML. |
experiment_dir |
str |
facultatif. Chemin d’accès au répertoire de l’espace de travail pour enregistrer les blocs-notes et les expériences générés. Valeur par défaut : /Users/<username>/databricks_automl/ |
experiment_name |
str |
facultatif. Nom de l’expérience MLflow créée par AutoML. Par défaut : Le nom est généré automatiquement. |
exclude_frameworks |
List[str] |
facultatif. Liste des infrastructures d’algorithmes que AutoML ne doit pas prendre en compte au fur et à mesure qu’il développe des modèles. Valeurs possibles : liste vide, ou un ou plusieurs « prophet », « arima ». Valeur par défaut : [] (toutes les infrastructures sont prises en compte) |
feature_store_lookups |
List[Dict] |
facultatif. Liste des dictionnaires qui représentent les caractéristiques de Feature Store pour l’augmentation des données de covariable. Les clés valides dans chaque dictionnaire sont les suivantes : - table_name (str) : obligatoire. Nom de la table de caractéristiques.- lookup_key (liste ou str) : obligatoire. Noms de colonnes à utiliser sous forme de clé au moment de la jointure de la table de caractéristiques aux données passées dans le param dataset . L’ordre des noms de colonnes doit correspondre à l’ordre des clés primaires de la table de caractéristiques.- timestamp_lookup_key (str) : obligatoire si la table spécifiée est une table de fonctionnalités de série chronologique . Nom de colonne à utiliser au moment de l’exécution d’une recherche d’un instant dans le passé dans la table de caractéristiques avec les données passées dans le paramètre dataset .Par défaut : [] |
identity_col |
Union[str, list] |
facultatif. Colonne/Colonnes qui identifient la série chronologique pour les prévisions de plusieurs séries. AutoML regroupe ces colonnes et la colonne heure pour les prévisions. |
sample_weight_col |
str |
Disponible dans Databricks Runtime 16.0 ML et versions ultérieures. Uniquement pour les flux de travail de séries multiples. facultatif. Spécifie la colonne du jeu de données qui contient des exemples de pondérations. Ces pondérations indiquent l’importance relative de chaque série chronologique pendant l’entraînement et l’évaluation du modèle. Les séries chronologiques avec des poids plus élevés ont une plus grande influence sur le modèle. S’il n’est pas fourni, toutes les séries chronologiques sont traitées avec un poids égal. Toutes les lignes appartenant à la même série chronologique doivent avoir le même poids. Les pondérations doivent être des valeurs non négatives, des décimales ou des entiers, et être comprises entre 0 et 10 000. |
output_database |
str |
facultatif. Si fourni, AutoML enregistre les prédictions du meilleur modèle dans une nouvelle table de la base de données spécifiée. Valeur par défaut : Les prédictions ne sont pas enregistrées. |
timeout_minutes |
int |
facultatif. Durée d’attente maximale pour l’exécution des versions d’évaluation de AutoML. Des délais d’attente plus longs permettent à AutoML d’exécuter plus d’essais et d’identifier un modèle avec une meilleure précision. Par défaut : 120 minutes Valeur minimale : 5 minutes Une erreur est signalée si le délai d’expiration est trop faible pour permettre l’exécution d’au moins une version d’évaluation. |
Importer un notebook
La méthode databricks.automl.import_notebook
importe un notebook qui a été enregistré en tant qu’artefact MLflow. Cette méthode retourne un ImportNotebookResult.
databricks.automl.import_notebook(
artifact_uri: str,
path: str,
overwrite: bool = False
) -> ImportNotebookResult:
Paramètres | Type | Description |
---|---|---|
artifact_uri |
str |
URI de l’artefact MLflow qui contient le notebook d’évaluation. |
path |
str |
Chemin d’accès dans l’espace de travail Databricks où le notebook doit être importé. Ceci doit être un chemin absolu. Le répertoire est créé s’il n’existe pas. |
overwrite |
bool |
Indique s’il faut remplacer le bloc-notes s’il existe déjà. La valeur par défaut de ce paramètre est False . |
Exemple d’importation de bloc-notes
summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)
AutoMLSummary
Objet de résumé pour une exécution AutoML qui décrit les métriques, les paramètres et d'autres détails pour chacun des essais. Vous utilisez également cet objet pour charger le modèle formé par une version d’évaluation spécifique.
Propriété | Type | Description |
---|---|---|
experiment |
mlflow.entities.Experiment |
Expérience MLflow utilisée pour enregistrer les essais. |
trials |
List[TrialInfo] |
Liste d’objets TrialInfo contenant des informations sur toutes les versions d’évaluation qui ont été exécutées. |
best_trial |
TrialInfo |
Objet TrialInfo contenant des informations sur l’essai qui a formé le meilleur score pondéré pour la métrique principale. |
metric_distribution |
str |
Distribution des scores pondérés pour la métrique principale dans tous les essais. |
output_table_name |
str |
Utilisé avec la prévision uniquement et uniquement si output_database est fourni. Nom de la table dans output_database contenant les prédictions du modèle. |
TrialInfo
Objet Résumé pour chaque essai individuel.
Propriété | Type | Description |
---|---|---|
notebook_path |
Optional[str] |
Chemin d’accès au bloc-notes généré pour cette version d’évaluation dans l’espace de travail. Pour la classification et la régression, cette valeur est définie uniquement pour le meilleur essai, tandis que tous les autres essais ont la valeur définie sur None .Pour la prévision, cette valeur est présente pour tous les essais. |
notebook_url |
Optional[str] |
URL du bloc-notes généré pour cette version d’évaluation. Pour la classification et la régression, cette valeur est définie uniquement pour le meilleur essai, tandis que tous les autres essais ont la valeur définie sur None .Pour la prévision, cette valeur est présente pour tous les essais. |
artifact_uri |
Optional[str] |
URI d'artefact MLflow pour le notebook généré. |
mlflow_run_id |
str |
ID d’exécution MLflow associé à cette exécution d’essai. |
metrics |
Dict[str, float] |
Les métriques enregistrées dans MLflow pour cette version d’évaluation. |
params |
Dict[str, str] |
Les paramètres consignés dans MLflow qui ont été utilisés pour cette version d’évaluation. |
model_path |
str |
URL de l’artefact MLflow du modèle formé dans cette version d’évaluation. |
model_description |
str |
Brève description du modèle et des hyperparamètres utilisés pour l’apprentissage de ce modèle. |
duration |
str |
Durée du retard en minutes |
preprocessors |
str |
Description des préprocesseurs exécutée avant d’effectuer l’apprentissage du modèle. |
evaluation_metric_score |
float |
Score de la métrique principale, évalué pour le jeu de données de validation. |
TrialInfo
a une méthode pour charger le modèle généré pour l’essai.
Méthode | Description |
---|---|
load_model() |
Chargez le modèle généré dans cette version d’évaluation, enregistré en tant qu’artefact MLflow. |
ImportNotebookResult
Propriété | Type | Description |
---|---|---|
path |
str |
Chemin d’accès dans l’espace de travail Databricks où le notebook doit être importé. Ceci doit être un chemin absolu. Le répertoire est créé s’il n’existe pas. |
url |
str |
URI de l’artefact MLflow qui contient le notebook d’évaluation. |