Udostępnij za pośrednictwem


ClassificationModels type

Definiuje wartości elementów ClassificationModels.
KnownClassificationModels można używać zamiennie z modelami ClassificationModel. To wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

LogisticsRegression: Regresja logistyczna jest podstawową techniką klasyfikacji. Należy do grupy klasyfikatorów liniowych i jest nieco podobny do regresji wielomianowej i liniowej. Regresja logistyczna jest szybka i stosunkowo nieskomplikowana i jest wygodna w interpretowaniu wyników. Chociaż jest to zasadniczo metoda klasyfikacji binarnej, może być również stosowana do problemów wieloklasowych.
SGD: SGD: Stochastic gradient spadek jest algorytmem optymalizacji często używanym w aplikacjach uczenia maszynowego do znajdowania parametrów modelu, które odpowiadają najlepszemu dopasowaniu między przewidywanymi i rzeczywistymi danymi wyjściowymi.
MultinomialNaiveBayes: wielomianowy klasyfikator prostego algorytmu Bayesa nadaje się do klasyfikacji z dyskretnymi cechami (np. zliczaniem wyrazów do klasyfikacji tekstu). Rozkład wielomianowy zwykle wymaga liczb całkowitych. Jednak w praktyce mogą również działać liczby ułamkowe, takie jak tf-idf.
BernoulliNaiveBayes: Prosty klasyfikator Bayesa dla wieloariancyjnych modeli Bernoulli.
SVM: maszyna wektorów nośnych (SVM) to nadzorowany model uczenia maszynowego, który używa algorytmów klasyfikacji na potrzeby problemów z klasyfikacją dwugrupową. Po podaniu zestawów modeli SVM oznaczonych danymi treningowym dla każdej kategorii są one w stanie kategoryzować nowy tekst.
LinearSVM: maszyna wektorów nośnych (SVM) to nadzorowany model uczenia maszynowego, który używa algorytmów klasyfikacji na potrzeby problemów z klasyfikacją dwugrupową. Po podaniu zestawów modeli SVM oznaczonych danymi treningowym dla każdej kategorii są one w stanie kategoryzować nowy tekst. Liniowa maszyna wektorów nośnych działa najlepiej, gdy dane wejściowe są liniowe, tj. dane można łatwo sklasyfikować, rysując linię prostą między wartościami sklasyfikowanymi na wykresie wykreślonym.
KNN: algorytm K najbliższych sąsiadów (KNN) używa "podobieństwa cech", aby przewidzieć wartości nowych punktów danych, co dodatkowo oznacza, że nowy punkt danych zostanie przypisany wartość na podstawie tego, jak ściśle pasuje do punktów w zestawie treningowym.
DecisionTree: Drzewa decyzyjne to nieparametryczna metoda uczenia nadzorowanego używana zarówno do zadań klasyfikacji, jak i regresji. Celem jest utworzenie modelu, który przewiduje wartość zmiennej docelowej przez uczenie się prostych reguł decyzyjnych wywnioskowanych z funkcji danych.
RandomForest: las losowy jest algorytmem uczenia nadzorowanego. "Las", który buduje, jest zespołem drzew decyzyjnych, zwykle wyszkolonych za pomocą metody "bagging". Ogólną ideą metody baggingu jest to, że połączenie modeli uczenia zwiększa ogólny wynik.
ExtremeRandomTrees: Extreme Trees to algorytm uczenia maszynowego, który łączy przewidywania z wielu drzew decyzyjnych. Jest to związane z powszechnie używanym algorytmem lasu losowego.
LightGBM: LightGBM to struktura zwiększająca gradient, która korzysta z algorytmów uczenia opartego na drzewie.
GradientBoosting: Technika przechodzenia tygodni uczących się do silnego ucznia nazywa się Boosting. Proces algorytmu zwiększania gradientu działa na tej teorii wykonywania.
XGBoostClassifier: XGBoost: Ekstremalne algorytmy zwiększania gradientu. Ten algorytm jest używany do danych strukturalnych, w których wartości kolumn docelowych można podzielić na odrębne wartości klas.

type ClassificationModels = string