KnownClassificationModels enum
Znane wartości klasy ClassificationModels akceptowane przez usługę.
Pola
BernoulliNaiveBayes | Prosty klasyfikator Bayesa dla wieloariancyjnych modeli Bernoulli. |
DecisionTree | Drzewa decyzyjne to nieparametryczna metoda uczenia nadzorowanego używana zarówno do zadań klasyfikacji, jak i regresji. Celem jest utworzenie modelu, który przewiduje wartość zmiennej docelowej przez uczenie się prostych reguł decyzyjnych wywnioskowanych z funkcji danych. |
ExtremeRandomTrees | Extreme Trees to grupowy algorytm uczenia maszynowego, który łączy przewidywania z wielu drzew decyzyjnych. Jest to związane z powszechnie używanym algorytmem lasu losowego. |
GradientBoosting | Technika przechodzenia tygodni uczących się do silnego ucznia jest nazywana Boosting. Proces algorytmu zwiększania gradientu działa na tej teorii wykonywania. |
KNN | Algorytm K najbliższych sąsiadów (KNN) używa "podobieństwa cech", aby przewidzieć wartości nowych punktów danych, co dodatkowo oznacza, że nowy punkt danych zostanie przypisany na podstawie tego, jak ściśle pasuje do punktów w zestawie treningowym. |
LightGBM | LightGBM to struktura zwiększająca gradient, która korzysta z algorytmów uczenia opartego na drzewie. |
LinearSVM | Maszyna wektorów nośnych (SVM) to nadzorowany model uczenia maszynowego, który używa algorytmów klasyfikacji dla problemów z klasyfikacją dwugrupową. Po podaniu zestawów modeli SVM oznaczonych danymi treningowym dla każdej kategorii są one w stanie kategoryzować nowy tekst. Liniowa maszyna wektorów nośnych działa najlepiej, gdy dane wejściowe są liniowe, tj. dane można łatwo sklasyfikować, rysując linię prostą między wartościami sklasyfikowanymi na wykresie wykreślonym. |
LogisticRegression | Regresja logistyczna to podstawowa technika klasyfikacji. Należy do grupy klasyfikatorów liniowych i jest nieco podobny do regresji wielomianowej i liniowej. Regresja logistyczna jest szybka i stosunkowo nieskomplikowana i jest wygodna w interpretowaniu wyników. Chociaż jest to zasadniczo metoda klasyfikacji binarnej, może być również stosowana do problemów wieloklasowych. |
MultinomialNaiveBayes | Wielomianowy klasyfikator Bayesa nadaje się do klasyfikacji z dyskretnymi cechami (np. liczba wyrazów do klasyfikacji tekstu). Rozkład wielomianowy zwykle wymaga liczb całkowitych. Jednak w praktyce mogą również działać liczby ułamkowe, takie jak tf-idf. |
RandomForest | Las losowy to algorytm uczenia nadzorowanego. "Las", który buduje, jest zespołem drzew decyzyjnych, zwykle wyszkolonych za pomocą metody "bagging". Ogólną ideą metody baggingu jest to, że połączenie modeli uczenia zwiększa ogólny wynik. |
SGD | SGD: Stochastic gradient spadek jest algorytmem optymalizacji często używanym w aplikacjach uczenia maszynowego do znajdowania parametrów modelu, które odpowiadają najlepszemu dopasowaniu między przewidywanymi i rzeczywistymi danymi wyjściowymi. |
SVM | Maszyna wektorów nośnych (SVM) to nadzorowany model uczenia maszynowego, który używa algorytmów klasyfikacji dla problemów z klasyfikacją dwugrupową. Po podaniu zestawów modeli SVM oznaczonych danymi treningowym dla każdej kategorii są one w stanie kategoryzować nowy tekst. |
XGBoostClassifier | XGBoost: ekstremalny algorytm zwiększania gradientu. Ten algorytm jest używany do danych strukturalnych, w których wartości kolumn docelowych można podzielić na odrębne wartości klas. |