KnownForecastingModels enum
Bekannte Werte von ForecastingModels , die der Dienst akzeptiert.
Felder
Arimax | Ein ARIMAX-Modell (Autoregressive Integrated Moving Average with Explanatory Variable) kann als multiples Regressionsmodell mit einem oder mehreren autoregressiven (AR)-Begriffen und/oder einem oder mehreren Begriffen des gleitenden Durchschnitts (MA) angezeigt werden. Diese Methode eignet sich für die Prognose, wenn Daten stationär/nicht stationär sind, und multivariat mit einem beliebigen Datenmustertyp, d. h. level/trend/saisonalität/zyklischer Zyklischer Art. |
AutoArima | Auto-Autoregressive Integrated Moving Average (ARIMA)-Modell verwendet Zeitreihendaten und statistische Analysen, um die Daten zu interpretieren und zukünftige Vorhersagen zu treffen. Dieses Modell zielt darauf ab, Daten mithilfe von Zeitreihendaten zu seinen früheren Werten zu erklären und verwendet lineare Regression, um Vorhersagen zu treffen. |
Average | Das Average-Vorhersagemodell trifft Vorhersagen, indem es den Durchschnitt der Zielwerte für jede Zeitreihe in den Trainingsdaten vorträgt. |
DecisionTree | Entscheidungsstrukturen sind eine nicht parametrische beaufsichtigte Lernmethode, die sowohl für Klassifizierungs- als auch Für Regressionsaufgaben verwendet wird. Das Ziel besteht darin, ein Modell zu erstellen, das den Wert einer Zielvariable vorhersagt, indem einfache Entscheidungsregeln gelernt werden, die aus den Datenfeatures abgeleitet werden. |
ElasticNet | Elastisches Netz ist eine beliebte Art der regularisierten linearen Regression, die zwei beliebte Strafen kombiniert, insbesondere die Funktionen L1 und L2. |
ExponentialSmoothing | Exponentielle Glättung ist eine Zeitreihenvorhersagemethode für univariate Daten, die erweitert werden kann, um Daten mit einem systematischen Trend oder einer saisonalen Komponente zu unterstützen. |
ExtremeRandomTrees | Extreme Trees ist ein Ensemble-Algorithmus für maschinelles Lernen, der die Vorhersagen aus vielen Entscheidungsstrukturen kombiniert. Es steht im Zusammenhang mit dem weit verbreiteten Zufallsgesamtalgorithmus. |
GradientBoosting | Die Technik der Übertragung von Wochenlernern in einen starken Lernenden heißt Boosting. Der Algorithmus zur Farbverlaufsaufhebung funktioniert auf dieser Ausführungstheorie. |
KNN | Der KNN-Algorithmus (K-nearest neighbors) verwendet "Featureähnlichkeit", um die Werte neuer Datenpunkte vorherzusagen, was weiter bedeutet, dass dem neuen Datenpunkt ein Wert zugewiesen wird, basierend darauf, wie eng er den Punkten im Trainingssatz entspricht. |
LassoLars | Lassomodell passt mit Least Angle Regression a.k.a. Lars. Es handelt sich um ein lineares Modell, das mit einem L1 vor dem Regularisierer trainiert wurde. |
LightGBM | LightGBM ist ein Framework zur Farbverlaufssteigerung, das strukturbasierte Lernalgorithmen verwendet. |
Naive | Beim naiven Vorhersagemodell wird für Vorhersagen jeweils der neueste Zielwert für jede Zeitreihe in den Trainingsdaten übertragen. |
Prophet | Prophet ist ein Verfahren zum Vorhersagen von Zeitreihendaten basierend auf einem additiven Modell, bei dem nichtlineare Trends mit jährlicher, wöchentlicher und täglicher Saisonalität sowie Feiertagseffekten passen. Es funktioniert am besten mit Zeitreihen mit starken saisonalen Auswirkungen und mehreren Jahreszeiten mit historischen Daten. Prophet ist robust gegenüber fehlenden Daten und Trendverschiebungen und verarbeitet Ausreißer in der Regel gut. |
RandomForest | Zufällige Gesamtstruktur ist ein überwachter Lernalgorithmus. Der "Wald", den er aufbaut, ist ein Ensemble von Entscheidungsbäumen, die normalerweise mit der "Bagging"-Methode trainiert werden. Die allgemeine Idee der Bagging-Methode ist, dass eine Kombination von Lernmodellen das Gesamtergebnis erhöht. |
SeasonalAverage | Das Vorhersagemodell für den saisonalen Durchschnitt trifft Vorhersagen, indem es den Durchschnittswert der letzten Datenreihe für jede Zeitreihe in den Trainingsdaten vorträgt. |
SeasonalNaive | Beim saisonalen naiven Vorhersagemodell wird für Vorhersagen jeweils die neueste Saison von Zielwerten für jede Zeitreihe in den Trainingsdaten übertragen. |
SGD | SGD: Stochastischer Gradientenabstieg ist ein Optimierungsalgorithmus, der häufig in Machine Learning-Anwendungen verwendet wird, um die Modellparameter zu finden, die der besten Anpassung zwischen vorhergesagten und tatsächlichen Ausgaben entsprechen. Es ist eine ungenaue, aber leistungsstarke Technik. |
TCNForecaster | TCNForecaster: Temporal Convolutional Networks Forecaster. TODO: Bitten Sie das Vorhersageteam um eine kurze Einführung. |
XGBoostRegressor | XGBoostRegressor: Der Extreme Gradient Boosting Regressor ist ein überwachtes Machine Learning-Modell mit einem Ensemble von Basislern. |