Поделиться через


KnownClassificationModels enum

Известные значения ClassificationModels , которые принимает служба.

Поля

BernoulliNaiveBayes

Упрощенный классификатор Байеса для многомерных моделей Бернулли.

DecisionTree

Деревья принятия решений — это непараметрический контролируемый метод обучения, используемый как для задач классификации, так и для регрессии. Цель — создать модель, которая прогнозирует значение целевой переменной, изучая простые правила принятия решений, выведенные на основе признаков данных.

ExtremeRandomTrees

Экстремальные деревья — это ансамблейный алгоритм машинного обучения, объединяющий прогнозы из многих деревьев принятия решений. Она связана с широко используемым алгоритмом случайного леса.

GradientBoosting

Метод передачи недельных учащихся в сильного учащегося называется Повышение. Алгоритм градиентного повышения работает на этой теории выполнения.

KNN

Алгоритм K-ближайших соседей (KNN) использует "сходство признаков" для прогнозирования значений новых точек данных, что означает, что новой точке данных будет присвоено значение в зависимости от того, насколько близко она соответствует точкам в обучающем наборе.

LightGBM

LightGBM — это платформа градиентного повышения, использующая алгоритмы обучения на основе дерева.

LinearSVM

Машина опорных векторов (SVM) — это контролируемая модель машинного обучения, которая использует алгоритмы классификации для двухгрупповых задач классификации. После предоставления наборам моделей SVM с метками обучающих данных для каждой категории они могут классифицировать новый текст. Линейный SVM работает лучше всего, если входные данные являются линейными, т. е. данные можно легко классифицировать, нарисовав прямую линию между классифицированными значениями на графике.

LogisticRegression

Логистическая регрессия — это фундаментальный метод классификации. Он относится к группе линейных классификаторов и несколько похож на полиномиальную и линейную регрессию. Логистическая регрессия является быстрой и относительно несложной, и вам удобно интерпретировать результаты. Хотя по сути это метод двоичной классификации, его также можно применять к многоклассовым проблемам.

MultinomialNaiveBayes

Многономиальный классификатор Байеса подходит для классификации с дискретными признаками (например, количество слов для классификации текста). Для многономного распределения обычно требуется количество целочисленных признаков. Однако на практике также могут работать дробные счетчики, такие как tf-idf.

RandomForest

Случайный лес — это контролируемый алгоритм обучения. "Лес", который он создает, представляет собой совокупность деревьев принятия решений, обычно обученных с помощью метода bagging. Общая идея метода bagging заключается в том, что сочетание моделей обучения увеличивает общий результат.

SGD

SGD: Стохастический градиентный спуск — это алгоритм оптимизации, который часто используется в приложениях машинного обучения для поиска параметров модели, которые соответствуют наилучшим образом между прогнозируемыми и фактическими выходными данными.

SVM

Машина опорных векторов (SVM) — это контролируемая модель машинного обучения, которая использует алгоритмы классификации для двухгрупповых задач классификации. После предоставления наборам моделей SVM с метками обучающих данных для каждой категории они могут классифицировать новый текст.

XGBoostClassifier

XGBoost: алгоритм повышения экстремальных градиентов. Этот алгоритм используется для структурированных данных, в которых значения целевого столбца можно разделить на значения различных классов.