Поделиться через


SgdCalibratedTrainer Класс

Определение

Для IEstimator<TTransformer> обучения логистической регрессии используется параллельный метод стохастического градиента. Обученная модель откалибрована и может привести к вероятности, задав выходное значение линейной функции в .PlattCalibrator

public sealed class SgdCalibratedTrainer : Microsoft.ML.Trainers.SgdBinaryTrainerBase<Microsoft.ML.Calibrators.CalibratedModelParametersBase<Microsoft.ML.Trainers.LinearBinaryModelParameters,Microsoft.ML.Calibrators.PlattCalibrator>>
type SgdCalibratedTrainer = class
    inherit SgdBinaryTrainerBase<CalibratedModelParametersBase<LinearBinaryModelParameters, PlattCalibrator>>
Public NotInheritable Class SgdCalibratedTrainer
Inherits SgdBinaryTrainerBase(Of CalibratedModelParametersBase(Of LinearBinaryModelParameters, PlattCalibrator))
Наследование

Комментарии

Чтобы создать этот обучающее средство, используйте Методы Настройки Или Методы Оценки.

Входные и выходные столбцы

Входные данные столбца меток должны иметь тип Boolean. Входные признаки данных столбцов должны быть вектором известного Singleразмера .

Этот алгоритм обучения выводит следующие столбцы:

Имя выходного столбца Тип столбца Описание
Score Single Несвязанная оценка, вычисляемая моделью.
PredictedLabel Boolean Прогнозируемая метка, зависящая от знака оценки. Отрицательная оценка соответствует значению false, а положительная — значению true.
Probability Single Вероятность, вычисляемая путем калибровки оценки истинности в качестве метки. Значение вероятности находится в диапазоне [0, 1].

Характеристики тренера

Задача машинного обучения Двоичная классификация
Требуется ли нормализация? Да
Требуется ли кэширование? нет
Требуется NuGet в дополнение к Microsoft.ML Нет
Экспортируемый в ONNX Да

Сведения об алгоритме обучения

Стохастический градиентный спуск (JSON) является одной из популярных процедур стохастической оптимизации, которые можно интегрировать в несколько задач машинного обучения для достижения состояния производительности. Этот тренер реализует Hogwild Stochastic Gradient Descent для двоичной классификации, которая поддерживает многопоточное без блокировки. Если связанная проблема оптимизации разрежена, Hogwild Stochastic Градиентный спуск достигает почти оптимальной скорости конвергенции. Дополнительные сведения о Hogwild Stochastic Градиентный спуск можно найти здесь.

Ссылки на примеры использования см. в разделе "См. также".

Поля

FeatureColumn

Столбец признаков, который ожидает тренер.

(Унаследовано от TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

Столбец метки, который ожидает тренер. Может иметь значение null, указывающее, что метка не используется для обучения.

(Унаследовано от TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

Столбец веса, который ожидает тренер. Может быть null, что указывает, что вес не используется для обучения.

(Унаследовано от TrainerEstimatorBase<TTransformer,TModel>)

Свойства

Info

Для IEstimator<TTransformer> обучения логистической регрессии используется параллельный метод стохастического градиента. Обученная модель откалибрована и может привести к вероятности, задав выходное значение линейной функции в .PlattCalibrator

(Унаследовано от SgdBinaryTrainerBase<TModel>)

Методы

Fit(IDataView, LinearModelParameters)

Продолжает обучение SdcaLogisticRegressionBinaryTrainer использования уже обученного modelParameters и возвращает Microsoft.ML.Data.BinaryPredictionTransformerзначение .

(Унаследовано от SgdBinaryTrainerBase<TModel>)
Fit(IDataView)

Тренирует и возвращает .ITransformer

(Унаследовано от TrainerEstimatorBase<TTransformer,TModel>)
GetOutputSchema(SchemaShape)

Для IEstimator<TTransformer> обучения логистической регрессии используется параллельный метод стохастического градиента. Обученная модель откалибрована и может привести к вероятности, задав выходное значение линейной функции в .PlattCalibrator

(Унаследовано от TrainerEstimatorBase<TTransformer,TModel>)

Методы расширения

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

Добавьте "контрольную точку кэширования" в цепочку оценщика. Это гарантирует, что подчиненные оценщики будут обучены на основе кэшированных данных. Рекомендуется использовать контрольную точку кэширования перед обучением, которые принимают несколько данных.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

Учитывая оценщик, верните объект-оболочку, который будет вызывать делегат один раз Fit(IDataView) . Часто важно, чтобы оценщик возвращал сведения о том, что было положено, поэтому Fit(IDataView) метод возвращает специально типизированный объект, а не просто общий ITransformer. Однако в то же время часто IEstimator<TTransformer> формируются в конвейеры со многими объектами, поэтому нам может потребоваться создать цепочку оценщиков, где EstimatorChain<TLastTransformer> оценщик, для которого мы хотим получить преобразователь, похоронен где-то в этой цепочке. В этом сценарии мы можем подключить делегат, который будет вызываться после вызова соответствия.

Применяется к

См. также раздел