Поделиться через


ClassificationModels type

Определяет значения для ClassificationModels.
KnownClassificationModels можно использовать взаимозаменяемо с ClassificationModels. Это перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

LogisticRegression. Логистическая регрессия — это фундаментальный метод классификации. Он принадлежит к группе линейных классификаторов и несколько похож на полиномиальную и линейную регрессию. Логистическая регрессия является быстрой и относительно несложной, и вам удобно интерпретировать результаты. Хотя это, по сути, метод двоичной классификации, он также может применяться к многоклассовым проблемам.
SGD: SGD: стохастический градиентный спуск — это алгоритм оптимизации, который часто используется в приложениях машинного обучения для поиска параметров модели, которые соответствуют наилучшим образом между прогнозируемыми и фактическими выходными данными.
MultinomialNaiveBayes. Многономиальный упрощенный классификатор Байеса подходит для классификации с дискретными признаками (например, подсчет слов для классификации текста). Для многочленного распределения обычно требуется целочисленное число признаков. Однако на практике также могут работать дробные счетчики, такие как tf-idf.
BernoulliNaiveBayes: упрощенный классификатор Байеса для многомерных моделей Бернулли.
SVM. Машина опорных векторов (SVM) — это защищенная модель машинного обучения, которая использует алгоритмы классификации для двухгрупповых задач классификации. После предоставления набора моделей SVM помеченных обучающих данных для каждой категории они могут классифицировать новый текст.
LinearSVM. Машина опорных векторов (SVM) — это защищенная модель машинного обучения, которая использует алгоритмы классификации для двухгрупповых задач классификации. После предоставления набора моделей SVM помеченных обучающих данных для каждой категории они могут классифицировать новый текст. Линейная SVM работает лучше всего, если входные данные являются линейными, т. е. данные можно легко классифицировать, нарисовав прямую линию между классифицированными значениями на графике.
KNN. Алгоритм K-ближайших соседей (KNN) использует "сходство признаков" для прогнозирования значений новых точек данных, что также означает, что новой точке данных будет присваиваться значение в зависимости от того, насколько точно она соответствует точкам в обучающем наборе.
DecisionTree: деревья принятия решений — это непараметрический контролируемый метод обучения, используемый как для задач классификации, так и для регрессии. Цель состоит в том, чтобы создать модель, которая прогнозирует значение целевой переменной, изучая простые правила принятия решений, выведенные на основе признаков данных.
RandomForest: случайный лес — это контролируемый алгоритм обучения. "Лес", который он создает, представляет собой ансамбль деревьев принятия решений, обычно обученных с помощью метода bagging. Общая идея метода мешков заключается в том, что сочетание моделей обучения увеличивает общий результат.
ExtremeRandomTrees: Extreme Trees — это алгоритм ансамбля машинного обучения, который объединяет прогнозы из многих деревьев принятия решений. Она связана с широко используемым алгоритмом случайного леса.
LightGBM. LightGBM — это платформа градиентного повышения, которая использует алгоритмы обучения на основе дерева.
GradientBoosting. Метод передачи учащихся недели в сильного учащегося называется Повышение. Процесс алгоритма градиентного повышения работает на этой теории выполнения.
XGBoostClassifier: XGBoost: алгоритм повышения градиента. Этот алгоритм используется для структурированных данных, в которых значения целевых столбцов можно разделить на отдельные значения классов.

type ClassificationModels = string