Udostępnij za pośrednictwem


ClassificationModels type

Definiuje wartości dla klasy ClassificationModels.
KnownClassificationModels można używać zamiennie z modelami ClassificationModel, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

LogisticsRegression: Regresja logistyczna jest podstawową techniką klasyfikacji. Należy do grupy klasyfikatorów liniowych i jest nieco podobny do regresji wielomianowej i liniowej. Regresja logistyczna jest szybka i stosunkowo nieskomplikowana i jest wygodna w interpretowaniu wyników. Chociaż jest to zasadniczo metoda klasyfikacji binarnej, można ją również zastosować do problemów wieloklasowych.
SGD: SGD: Spadek gradientu Stochastic jest algorytmem optymalizacji często używanym w aplikacjach uczenia maszynowego w celu znalezienia parametrów modelu, które odpowiadają najlepszemu dopasowaniu między przewidywanymi i rzeczywistymi danymi wyjściowymi.
MultinomialNaiveBayes: Wielomianowy klasyfikator Bayesa nadaje się do klasyfikacji z dyskretnymi cechami (np. liczba wyrazów do klasyfikacji tekstu). Rozkład wielomianowy zwykle wymaga liczb całkowitych. Jednak w praktyce liczba ułamkowa, taka jak tf-idf, może również działać.
BernoulliNaiveBayes: Naive Bayes classifier for multivariate Bernoulli models (Naive Bayes classifier for multivariate Bernoulli models).
svM: maszyna wektorów nośnych (SVM) to nadzorowany model uczenia maszynowego, który używa algorytmów klasyfikacji na potrzeby problemów z klasyfikacją dwugrupową. Po podaniu zestawów modeli SVM oznaczonych danymi treningowym dla każdej kategorii są one w stanie kategoryzować nowy tekst.
LinearSVM: maszyna wektorów nośnych (SVM) to nadzorowany model uczenia maszynowego korzystający z algorytmów klasyfikacji na potrzeby problemów z klasyfikacją dwugrupową. Po podaniu zestawów modeli SVM oznaczonych danymi treningowym dla każdej kategorii są one w stanie kategoryzować nowy tekst. Liniowa maszyna wektorów nośnych działa najlepiej, gdy dane wejściowe są liniowe, tj. dane można łatwo sklasyfikować, rysując prostą linię między wartościami sklasyfikowanymi na wykresie wykreślonym.
KNN: algorytm K najbliższych sąsiadów (KNN) używa "podobieństwa funkcji" do przewidywania wartości nowych punktów danych, co dodatkowo oznacza, że nowy punkt danych zostanie przypisany wartość na podstawie tego, jak blisko pasuje do punktów w zestawie treningowym.
DecisionTree: Drzewa decyzyjne to nieparametryczna metoda uczenia nadzorowanego używana zarówno do zadań klasyfikacji, jak i regresji. Celem jest utworzenie modelu, który przewiduje wartość zmiennej docelowej, ucząc się prostych reguł decyzyjnych wywnioskowanych z funkcji danych.
RandomForest: Las losowy to algorytm uczenia nadzorowanego. "Las", który buduje, jest zespołem drzew decyzyjnych, zwykle wyszkolonych za pomocą metody "bagging". Ogólną ideą metody baggingu jest to, że kombinacja modeli uczenia zwiększa ogólny wynik.
ExtremeRandomTrees: Extreme Trees to algorytm uczenia maszynowego, który łączy przewidywania z wielu drzew decyzyjnych. Jest on związany z powszechnie używanym algorytmem lasu losowego.
lightGBM: LightGBM to struktura zwiększająca gradient, która korzysta z algorytmów uczenia opartego na drzewie.
GradientBoosting: Technika przechodzenia tygodni uczniów do silnego ucznia nazywa się Boosting. Proces algorytmu zwiększania gradientu działa na tej teorii wykonywania.
XGBoostClassifier: XGBoost: Ekstremalny algorytm zwiększania gradientu. Ten algorytm jest używany w przypadku danych strukturalnych, w których wartości kolumn docelowych można podzielić na odrębne wartości klas.

type ClassificationModels = string