KnownRegressionModels enum
Valeurs connues de RegressionModels que le service accepte.
Champs
DecisionTree | Les arbres de décision sont une méthode d’apprentissage supervisée non paramétrique utilisée pour les tâches de classification et de régression. L’objectif est de créer un modèle qui prédit la valeur d’une variable cible en apprenant des règles de décision simples déduites à partir des fonctionnalités de données. |
ElasticNet | Le filet élastique est un type populaire de régression linéaire régularisée qui combine deux pénalités populaires, en particulier les fonctions de pénalité L1 et L2. |
ExtremeRandomTrees | Extreme Trees est un algorithme d’apprentissage automatique d’ensemble qui combine les prédictions de nombreux arbres de décision. Il est lié à l’algorithme de forêt aléatoire largement utilisé. |
GradientBoosting | La technique du transit des apprenants de la semaine vers un apprenant fort s’appelle Boosting. Le processus d’algorithme de renforcement de gradient fonctionne sur cette théorie de l’exécution. |
KNN | L’algorithme K-nearest neighbors (KNN) utilise la « similarité des caractéristiques » pour prédire les valeurs des nouveaux points de données, ce qui signifie en outre que le nouveau point de données se verra attribuer une valeur en fonction de la façon dont il correspond aux points dans le jeu d’entraînement. |
LassoLars | Le modèle Lasso s’adapte à la régression d’angle le plus petit, c’est-à-dire lars. Il s’agit d’un modèle linéaire entraîné avec un L1 antérieur comme régularisateur. |
LightGBM | LightGBM est une infrastructure de renforcement de gradient qui utilise des algorithmes d’apprentissage basés sur des arborescences. |
RandomForest | La forêt aléatoire est un algorithme d’apprentissage supervisé. La « forêt » qu’il construit, est un ensemble d’arbres de décision, généralement entraînés avec la méthode « ensachage ». L’idée générale de la méthode d’ensachage est qu’une combinaison de modèles d’apprentissage augmente le résultat global. |
SGD | SGD : la descente de gradient stochastique est un algorithme d’optimisation souvent utilisé dans les applications Machine Learning pour rechercher les paramètres de modèle qui correspondent le mieux à la meilleure adéquation entre les sorties prédites et réelles. C’est une technique imprécise mais puissante. |
XGBoostRegressor | XGBoostRegressor : Extreme Gradient Boosting Regressor est un modèle de Machine Learning supervisé utilisant un ensemble d’apprenants de base. |