KnownClassificationModels enum
Valeurs connues de ClassificationModels que le service accepte.
Champs
BernoulliNaiveBayes | Classifieur Naive Bayes pour les modèles Bernoulli multivariés. |
DecisionTree | Les arbres de décision sont une méthode d’apprentissage supervisée non paramétrique utilisée pour les tâches de classification et de régression. L’objectif est de créer un modèle qui prédit la valeur d’une variable cible en apprenant des règles de décision simples déduites des fonctionnalités de données. |
ExtremeRandomTrees | Extreme Trees est un algorithme d’apprentissage automatique d’ensemble qui combine les prédictions de nombreux arbres de décision. Il est lié à l’algorithme de forêt aléatoire largement utilisé. |
GradientBoosting | La technique du transit des apprenants de semaine vers un apprenant fort est appelée Boosting. Le processus de l’algorithme de renforcement de gradient fonctionne sur cette théorie de l’exécution. |
KNN | L’algorithme K-nearest neighbors (KNN) utilise la « similarité des caractéristiques » pour prédire les valeurs des nouveaux points de données, ce qui signifie en outre qu’une valeur sera attribuée au nouveau point de données en fonction de la façon dont il correspond aux points dans le jeu d’entraînement. |
LightGBM | LightGBM est une infrastructure de renforcement de gradient qui utilise des algorithmes d’apprentissage basés sur des arborescences. |
LinearSVM | Une machine à vecteur de support (SVM) est un modèle machine learning supervisé qui utilise des algorithmes de classification pour les problèmes de classification à deux groupes. Après avoir donné à un modèle SVM des jeux de données d’entraînement étiquetées pour chaque catégorie, ils sont en mesure de catégoriser le nouveau texte. La machine virtuelle SVM linéaire fonctionne mieux quand les données d’entrée sont linéaires, c’est-à-dire que les données peuvent être facilement classées en dessinant la ligne droite entre les valeurs classifiées sur un graphique tracé. |
LogisticRegression | La régression logistique est une technique de classification fondamentale. Il appartient au groupe des classifieurs linéaires et est un peu similaire à la régression polynomiale et linéaire. La régression logistique est rapide et relativement simple, et il est pratique pour vous d’interpréter les résultats. Bien qu’il s’agisse essentiellement d’une méthode de classification binaire, elle peut également être appliquée à des problèmes multiclasses. |
MultinomialNaiveBayes | Le classifieur Naive Bayes multinomial convient pour la classification avec des caractéristiques discrètes (par exemple, le nombre de mots pour la classification de texte). La distribution multinomiale nécessite normalement des nombres de caractéristiques entières. Toutefois, dans la pratique, les décomptes fractionnaires tels que tf-idf peuvent également fonctionner. |
RandomForest | La forêt aléatoire est un algorithme d’apprentissage supervisé. La « forêt » qu’il construit, est un ensemble d’arbres de décision, généralement entraînés avec la méthode « bagging ». L’idée générale de la méthode d’ensachage est qu’une combinaison de modèles d’apprentissage augmente le résultat global. |
SGD | SGD : La descente de gradient stochastique est un algorithme d’optimisation souvent utilisé dans les applications machine learning pour trouver les paramètres de modèle qui correspondent au meilleur ajustement entre les sorties prédites et réelles. |
SVM | Une machine à vecteur de support (SVM) est un modèle machine learning supervisé qui utilise des algorithmes de classification pour les problèmes de classification à deux groupes. Après avoir donné à un modèle SVM des jeux de données d’entraînement étiquetées pour chaque catégorie, ils sont en mesure de catégoriser le nouveau texte. |
XGBoostClassifier | XGBoost : Algorithme d’amplification de gradient extrême. Cet algorithme est utilisé pour les données structurées où les valeurs de colonne cible peuvent être divisées en valeurs de classe distinctes. |