KnownClassificationModels enum
Известные значения ClassificationModels , которые принимает служба.
Поля
BernoulliNaiveBayes | Упрощенный классификатор Байеса для многомерных моделей Бернулли. |
DecisionTree | Деревья принятия решений — это непараметрический контролируемый метод обучения, используемый как для задач классификации, так и для регрессии. Цель — создать модель, которая прогнозирует значение целевой переменной, изучая простые правила принятия решений, выведенные на основе признаков данных. |
ExtremeRandomTrees | Экстремальные деревья — это ансамблейный алгоритм машинного обучения, объединяющий прогнозы из многих деревьев принятия решений. Она связана с широко используемым алгоритмом случайного леса. |
GradientBoosting | Метод передачи недельных учащихся в сильного учащегося называется Повышение. Алгоритм градиентного повышения работает на этой теории выполнения. |
KNN | Алгоритм K-ближайших соседей (KNN) использует "сходство признаков" для прогнозирования значений новых точек данных, что означает, что новой точке данных будет присвоено значение в зависимости от того, насколько близко она соответствует точкам в обучающем наборе. |
LightGBM | LightGBM — это платформа градиентного повышения, использующая алгоритмы обучения на основе дерева. |
LinearSVM | Машина опорных векторов (SVM) — это контролируемая модель машинного обучения, которая использует алгоритмы классификации для двухгрупповых задач классификации. После предоставления наборам моделей SVM с метками обучающих данных для каждой категории они могут классифицировать новый текст. Линейный SVM работает лучше всего, если входные данные являются линейными, т. е. данные можно легко классифицировать, нарисовав прямую линию между классифицированными значениями на графике. |
LogisticRegression | Логистическая регрессия — это фундаментальный метод классификации. Он относится к группе линейных классификаторов и несколько похож на полиномиальную и линейную регрессию. Логистическая регрессия является быстрой и относительно несложной, и вам удобно интерпретировать результаты. Хотя по сути это метод двоичной классификации, его также можно применять к многоклассовым проблемам. |
MultinomialNaiveBayes | Многономиальный классификатор Байеса подходит для классификации с дискретными признаками (например, количество слов для классификации текста). Для многономного распределения обычно требуется количество целочисленных признаков. Однако на практике также могут работать дробные счетчики, такие как tf-idf. |
RandomForest | Случайный лес — это контролируемый алгоритм обучения. "Лес", который он создает, представляет собой совокупность деревьев принятия решений, обычно обученных с помощью метода bagging. Общая идея метода bagging заключается в том, что сочетание моделей обучения увеличивает общий результат. |
SGD | SGD: Стохастический градиентный спуск — это алгоритм оптимизации, который часто используется в приложениях машинного обучения для поиска параметров модели, которые соответствуют наилучшим образом между прогнозируемыми и фактическими выходными данными. |
SVM | Машина опорных векторов (SVM) — это контролируемая модель машинного обучения, которая использует алгоритмы классификации для двухгрупповых задач классификации. После предоставления наборам моделей SVM с метками обучающих данных для каждой категории они могут классифицировать новый текст. |
XGBoostClassifier | XGBoost: алгоритм повышения экстремальных градиентов. Этот алгоритм используется для структурированных данных, в которых значения целевого столбца можно разделить на значения различных классов. |