Partager via


KnownRegressionModels enum

Valeurs connues de RegressionModels que le service accepte.

Champs

DecisionTree

Les arbres de décision sont une méthode d’apprentissage supervisée non paramétrique utilisée pour les tâches de classification et de régression. L’objectif est de créer un modèle qui prédit la valeur d’une variable cible en apprenant des règles de décision simples déduites à partir des fonctionnalités de données.

ElasticNet

Le filet élastique est un type populaire de régression linéaire régularisée qui combine deux pénalités populaires, en particulier les fonctions de pénalité L1 et L2.

ExtremeRandomTrees

Extreme Trees est un algorithme d’apprentissage automatique d’ensemble qui combine les prédictions de nombreux arbres de décision. Il est lié à l’algorithme de forêt aléatoire largement utilisé.

GradientBoosting

La technique du transit des apprenants de la semaine vers un apprenant fort s’appelle Boosting. Le processus d’algorithme de renforcement de gradient fonctionne sur cette théorie de l’exécution.

KNN

L’algorithme K-nearest neighbors (KNN) utilise la « similarité des caractéristiques » pour prédire les valeurs des nouveaux points de données, ce qui signifie en outre que le nouveau point de données se verra attribuer une valeur en fonction de la façon dont il correspond aux points dans le jeu d’entraînement.

LassoLars

Le modèle Lasso s’adapte à la régression d’angle le plus petit, c’est-à-dire lars. Il s’agit d’un modèle linéaire entraîné avec un L1 antérieur comme régularisateur.

LightGBM

LightGBM est une infrastructure de renforcement de gradient qui utilise des algorithmes d’apprentissage basés sur des arborescences.

RandomForest

La forêt aléatoire est un algorithme d’apprentissage supervisé. La « forêt » qu’il construit, est un ensemble d’arbres de décision, généralement entraînés avec la méthode « ensachage ». L’idée générale de la méthode d’ensachage est qu’une combinaison de modèles d’apprentissage augmente le résultat global.

SGD

SGD : la descente de gradient stochastique est un algorithme d’optimisation souvent utilisé dans les applications Machine Learning pour rechercher les paramètres de modèle qui correspondent le mieux à la meilleure adéquation entre les sorties prédites et réelles. C’est une technique imprécise mais puissante.

XGBoostRegressor

XGBoostRegressor : Extreme Gradient Boosting Regressor est un modèle de Machine Learning supervisé utilisant un ensemble d’apprenants de base.