Partager via


SgdCalibratedTrainer Classe

Définition

Pour l’apprentissage IEstimator<TTransformer> de la régression logistique à l’aide d’une méthode de dégradé stochastique parallèle. Le modèle entraîné est étalonné et peut produire une probabilité en alimentant la valeur de sortie de la fonction linéaire à un PlattCalibrator.

public sealed class SgdCalibratedTrainer : Microsoft.ML.Trainers.SgdBinaryTrainerBase<Microsoft.ML.Calibrators.CalibratedModelParametersBase<Microsoft.ML.Trainers.LinearBinaryModelParameters,Microsoft.ML.Calibrators.PlattCalibrator>>
type SgdCalibratedTrainer = class
    inherit SgdBinaryTrainerBase<CalibratedModelParametersBase<LinearBinaryModelParameters, PlattCalibrator>>
Public NotInheritable Class SgdCalibratedTrainer
Inherits SgdBinaryTrainerBase(Of CalibratedModelParametersBase(Of LinearBinaryModelParameters, PlattCalibrator))
Héritage

Remarques

Pour créer ce formateur, utilisez SgdCalibrated ou SgdCalibrated(Options).

Colonnes d’entrée et de sortie

Les données de la colonne d’étiquettes d’entrée doivent être Boolean. Les données de colonne des caractéristiques d’entrée doivent être un vecteur de taille connue de Single.

Ce formateur génère les colonnes suivantes :

Nom de colonne de sortie Type de colonne Description
Score Single Score non lié calculé par le modèle.
PredictedLabel Boolean Étiquette prédite, en fonction du signe du score. Un score négatif est mappé à false, tandis qu’un score positif est mappé à true.
Probability Single Probabilité calculée en calibrant le score d’avoir la valeur true comme étiquette. La valeur de probabilité est comprise dans la plage [0, 1].

Caractéristiques de l’entraîneur

Tâche d’apprentissage automatique Classification binaire
La normalisation est-elle nécessaire ? Oui
La mise en cache est-elle requise ? Non
NuGet requis en plus de Microsoft.ML Aucun
Exportable vers ONNX Oui

Détails de l’algorithme d’apprentissage

La descente stochastique de gradient (SGD) est l’une des procédures d’optimisation stochastiques populaires qui peuvent être intégrées à plusieurs tâches de Machine Learning pour atteindre des performances de pointe. Cet entraîneur implémente la descente de gradient stochastique Hogwild pour la classification binaire qui prend en charge le multithreading sans verrouillage. Si le problème d’optimisation associé est éparse, Hogwild Stochastic Gradient Descent atteint un taux presque optimal de convergence. Pour plus d’informations sur Hogwild Stochastic Gradient Descent, consultez cette page.

Consultez la section Voir aussi pour obtenir des liens vers des exemples d’utilisation.

Champs

FeatureColumn

Colonne de caractéristique attendue par l’entraîneur.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

Colonne d’étiquette attendue par l’entraîneur. Peut être null, ce qui indique que l’étiquette n’est pas utilisée pour l’entraînement.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

Colonne de poids attendue par l’entraîneur. Peut être null, ce qui indique que le poids n’est pas utilisé pour l’entraînement.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)

Propriétés

Info

Pour l’apprentissage IEstimator<TTransformer> de la régression logistique à l’aide d’une méthode de dégradé stochastique parallèle. Le modèle entraîné est étalonné et peut produire une probabilité en alimentant la valeur de sortie de la fonction linéaire à un PlattCalibrator.

(Hérité de SgdBinaryTrainerBase<TModel>)

Méthodes

Fit(IDataView, LinearModelParameters)

Poursuit l’entraînement d’un SdcaLogisticRegressionBinaryTrainer utilisateur déjà formé modelParameters et retourne un Microsoft.ML.Data.BinaryPredictionTransformer.

(Hérité de SgdBinaryTrainerBase<TModel>)
Fit(IDataView)

Effectue l’apprentissage et retourne un ITransformer.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)
GetOutputSchema(SchemaShape)

Pour l’apprentissage IEstimator<TTransformer> de la régression logistique à l’aide d’une méthode de dégradé stochastique parallèle. Le modèle entraîné est étalonné et peut produire une probabilité en alimentant la valeur de sortie de la fonction linéaire à un PlattCalibrator.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)

Méthodes d’extension

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

Ajoutez un « point de contrôle de mise en cache » à la chaîne d’estimateur. Cela garantit que les estimateurs en aval seront entraînés par rapport aux données mises en cache. Il est utile d’avoir un point de contrôle de mise en cache avant les formateurs qui prennent plusieurs passes de données.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

Étant donné un estimateur, retournez un objet de création de package de restrictions qui appellera un délégué une fois Fit(IDataView) appelé. Il est souvent important qu’un estimateur retourne des informations sur ce qui était adapté, c’est pourquoi la Fit(IDataView) méthode retourne un objet spécifiquement typé, plutôt que simplement un général ITransformer. Toutefois, en même temps, IEstimator<TTransformer> sont souvent formés en pipelines avec de nombreux objets. Nous pouvons donc avoir besoin de créer une chaîne d’estimateurs par EstimatorChain<TLastTransformer> le biais de laquelle l’estimateur pour lequel nous voulons obtenir le transformateur est enterré quelque part dans cette chaîne. Pour ce scénario, nous pouvons par le biais de cette méthode attacher un délégué qui sera appelé une fois l’ajustement appelé.

S’applique à

Voir aussi