次の方法で共有


RegressionModels type

RegressionModels の値を定義します。
KnownRegressionModels は RegressionModels と同じ意味で使用できます。この列挙型には、サービスでサポートされている既知の値が含まれています。

サービスでサポートされている既知の値

ElasticNet: Elastic net は、一般的な 2 つのペナルティ (特に L1 と L2 のペナルティ関数) を組み合わせた一般的なタイプの正規線形回帰です。
GradientBoosting: 週の学習者を強力な学習者に転送する手法は、Boosting と呼ばれます。 勾配ブースティング アルゴリズム プロセスは、この実行理論に基づいて動作します。
DecisionTree: デシジョン ツリーは、分類タスクと回帰タスクの両方に使用されるノンパラメトリックな教師あり学習方法です。 目標は、データ特徴から推論される単純な決定ルールを学習することで、ターゲット変数の値を予測するモデルを作成することです。
KNN: K ニアレスト ネイバー (KNN) アルゴリズムでは、"特徴類似性" を使用して新しいデータポイントの値を予測します。つまり、新しいデータ ポイントには、トレーニング セット内のポイントとどの程度一致するかに基づいて値が割り当てられます。
なげなわ: なげなわモデルは、最小角度回帰 a.k.a. Lars に適合します。 これは、正則化の前に L1 でトレーニングされた線形モデルです。
SGD: SGD: 確率勾配降下法は、機械学習アプリケーションでよく使用される最適化アルゴリズムであり、予測された出力と実際の出力の間の最適な適合に対応するモデル パラメーターを検索します。 それは不正確だが強力なテクニックです。
RandomForest: ランダム フォレストは、教師あり学習アルゴリズムです。 構築する "フォレスト" はデシジョン ツリーのアンサンブルであり、通常は "袋詰め" メソッドでトレーニングされます。 バギング方法の一般的な考え方は、学習モデルの組み合わせによって全体的な結果が増加することです。
ExtremeRandomTrees: Extreme Trees は、多くのデシジョン ツリーからの予測を組み合わせたアンサンブル 機械学習アルゴリズムです。 これは、広く使用されているランダム フォレスト アルゴリズムに関連しています。
LightGBM: LightGBM は、ツリー ベースの学習アルゴリズムを使用する勾配ブースティング フレームワークです。
XGBoostRegressor: XGBoostRegressor: Extreme Gradient Boosting Regressor は、基本学習者のアンサンブルを使用した教師あり機械学習モデルです。

type RegressionModels = string