Dela via


ClassificationModels type

Definierar värden för ClassificationModels.
KnownClassificationModels kan användas synonymt med ClassificationModels. Den här uppräkningen innehåller de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

LogisticRegression: Logistisk regression är en grundläggande klassificeringsteknik. Den tillhör gruppen med linjära klassificerare och liknar polynom- och linjär regression. Logistisk regression är snabb och relativt okomplicerad, och det är praktiskt att tolka resultaten. Även om det i grunden är en metod för binär klassificering kan den också tillämpas på problem med flera klasser.
SGD: SGD: Stokastisk gradient descent är en optimeringsalgoritm som ofta används i maskininlärningsprogram för att hitta de modellparametrar som passar bäst mellan förutsagda och faktiska utdata.
MultinomialNaiveBayes: Den multinomiala Naive Bayes-klassificeraren är lämplig för klassificering med diskreta funktioner (t.ex. ordantal för textklassificering). Multinomfördelningen kräver normalt antal heltalsfunktioner. I praktiken kan dock bråktal som tf-idf också fungera.
BernoulliNaiveBayes: Naive Bayes-klassificerare för Bernoulli-modeller med flera varianter.
STÖDVEKTOR: En stödvektormaskin (SVM) är en övervakad maskininlärningsmodell som använder klassificeringsalgoritmer för klassificeringsproblem med två grupper. När du har gett en STÖDVEK-modelluppsättningar med märkta träningsdata för varje kategori kan de kategorisera ny text.
LinjärSVM: En stödvektormaskin (SVM) är en övervakad maskininlärningsmodell som använder klassificeringsalgoritmer för klassificeringsproblem med två grupper. När du har gett en STÖDVEK-modelluppsättningar med märkta träningsdata för varje kategori kan de kategorisera ny text. Linjär stödvektormaskin fungerar bäst när indata är linjära, d.v.s. data kan enkelt klassificeras genom att rita den räta linjen mellan klassificerade värden i en ritad graf.
KNN: K-NN-algoritmen (K-nearest neighbors) använder "funktionslikhet" för att förutsäga värdena för nya datapunkter, vilket innebär att den nya datapunkten tilldelas ett värde baserat på hur nära den matchar punkterna i träningsuppsättningen.
DecisionTree: Beslutsträd är en icke-parametrisk övervakad inlärningsmetod som används för både klassificerings- och regressionsaktiviteter. Målet är att skapa en modell som förutsäger värdet för en målvariabel genom att lära sig enkla beslutsregler som härleds från datafunktionerna.
RandomForest: Slumpmässig skog är en övervakad inlärningsalgoritm. Den "skog" den bygger, är en ensemble av beslutsträd, vanligtvis tränad med metoden "bagging". Den allmänna idén med bagging-metoden är att en kombination av inlärningsmodeller ökar det övergripande resultatet.
ExtremeRandomTrees: Extreme Trees är en ensemblemaskininlärningsalgoritm som kombinerar förutsägelserna från många beslutsträd. Den är relaterad till den ofta använda slumpmässiga skogsalgoritmen.
LightGBM: LightGBM är ett gradient boost-ramverk som använder trädbaserade inlärningsalgoritmer.
GradientBoosting: Tekniken att transitera vecka elever till en stark elev kallas Öka. Gradient boost-algoritmprocessen fungerar med den här teorin om körning.
XGBoostClassifier: XGBoost: Algoritm för ökning av extrem toning. Den här algoritmen används för strukturerade data där målkolumnvärden kan delas in i distinkta klassvärden.

type ClassificationModels = string