Dela via


KnownRegressionModels enum

Kända värden för RegressionModels som tjänsten accepterar.

Fält

DecisionTree

Beslutsträd är en icke-parametrisk övervakad inlärningsmetod som används för både klassificerings- och regressionsaktiviteter. Målet är att skapa en modell som förutsäger värdet för en målvariabel genom att lära sig enkla beslutsregler som härleds från datafunktionerna.

ElasticNet

Elastiskt nät är en populär typ av regulariserad linjär regression som kombinerar två populära straff, särskilt L1- och L2-strafffunktionerna.

ExtremeRandomTrees

Extreme Trees är en ensemblemaskininlärningsalgoritm som kombinerar förutsägelserna från många beslutsträd. Den är relaterad till den ofta använda slumpmässiga skogsalgoritmen.

GradientBoosting

Tekniken att transitera veckans elever till en stark elev kallas Öka. Gradient boost-algoritmprocessen fungerar med den här teorin om körning.

KNN

K-NN-algoritmen (K-nearest neighbors) använder "funktionslikhet" för att förutsäga värdena för nya datapunkter, vilket ytterligare innebär att den nya datapunkten tilldelas ett värde baserat på hur nära den matchar punkterna i träningsuppsättningen.

LassoLars

Lassomodellen passar med Least Angle Regression a.k.a. Lars. Det är en linjär modell som tränats med en L1 före regularizer.

LightGBM

LightGBM är ett gradient boost-ramverk som använder trädbaserade inlärningsalgoritmer.

RandomForest

Slumpmässig skog är en övervakad inlärningsalgoritm. Den "skog" den bygger, är en ensemble av beslutsträd, vanligtvis tränad med metoden "bagging". Den allmänna idén med bagging-metoden är att en kombination av inlärningsmodeller ökar det övergripande resultatet.

SGD

SGD: Stokastisk gradient descent är en optimeringsalgoritm som ofta används i maskininlärningsprogram för att hitta de modellparametrar som passar bäst mellan förutsagda och faktiska utdata. Det är en oexakt men kraftfull teknik.

XGBoostRegressor

XGBoostRegressor: Regressor med extrem toningsförstärkning är en övervakad maskininlärningsmodell med ensemble av grundläggande elever.