Partager via


SymbolicSgdLogisticRegressionBinaryTrainer Classe

Définition

Pour IEstimator<TTransformer> prédire une cible à l’aide d’un modèle de classification binaire linéaire entraîné avec la descente de dégradé stochastique symbolique.

public sealed class SymbolicSgdLogisticRegressionBinaryTrainer : Microsoft.ML.Trainers.TrainerEstimatorBase<Microsoft.ML.Data.BinaryPredictionTransformer<Microsoft.ML.Calibrators.CalibratedModelParametersBase<Microsoft.ML.Trainers.LinearBinaryModelParameters,Microsoft.ML.Calibrators.PlattCalibrator>>,Microsoft.ML.Calibrators.CalibratedModelParametersBase<Microsoft.ML.Trainers.LinearBinaryModelParameters,Microsoft.ML.Calibrators.PlattCalibrator>>
type SymbolicSgdLogisticRegressionBinaryTrainer = class
    inherit TrainerEstimatorBase<BinaryPredictionTransformer<CalibratedModelParametersBase<LinearBinaryModelParameters, PlattCalibrator>>, CalibratedModelParametersBase<LinearBinaryModelParameters, PlattCalibrator>>
Public NotInheritable Class SymbolicSgdLogisticRegressionBinaryTrainer
Inherits TrainerEstimatorBase(Of BinaryPredictionTransformer(Of CalibratedModelParametersBase(Of LinearBinaryModelParameters, PlattCalibrator)), CalibratedModelParametersBase(Of LinearBinaryModelParameters, PlattCalibrator))
Héritage

Remarques

Pour créer ce formateur, utilisez SymbolStochasticGradientDescent ou SymbolStochasticGradientDescent(Options).

Colonnes d’entrée et de sortie

Les données de la colonne d’étiquettes d’entrée doivent être Boolean. Les données de colonne des caractéristiques d’entrée doivent être un vecteur de taille connue de Single.

Ce formateur génère les colonnes suivantes :

Nom de colonne de sortie Type de colonne Description
Score Single Score non lié calculé par le modèle.
PredictedLabel Boolean Étiquette prédite, en fonction du signe du score. Un score négatif est mappé à false, tandis qu’un score positif est mappé à true.
Probability Single La probabilité calculée en calibrant le score d’avoir true comme étiquette. La valeur de probabilité est dans la plage [0, 1].

Caractéristiques de l’entraîneur

Tâche d’apprentissage automatique Classification binaire
La normalisation est-elle requise ? Oui
La mise en cache est-elle requise ? Non
NuGet requis en plus de Microsoft.ML Microsoft.ML.Mkl.Components
Exportable vers ONNX Oui

Détails de l’algorithme d’apprentissage

La descente de dégradé stochastique symbolique est un algorithme qui rend ses prédictions en trouvant un hyperplane séparateur. Par exemple, avec des valeurs de fonctionnalité $f 0, f1,..., f_{D-1}$, la prédiction est donnée en déterminant quel côté de l’hyperplane le point tombe. C’est le même que le signe de la somme pondérée de la fonctionnalité, c’est-à-dire $\sum_{i = 0}^{D-1} (w_i * f_i) + b$, où $w_0, w_1,..., w_{D-1}$ sont les poids calculés par l’algorithme, et $b$ est le biais calculé par l’algorithme.

Bien que la plupart des algorithmes de descente de dégradé stochastique symboliques soient intrinsèquement séquentiels - à chaque étape, le traitement de l’exemple actuel dépend des paramètres appris à partir d’exemples précédents. Cet algorithme entraîne les modèles locaux dans des threads distincts et des cobminers de modèle probabilistique qui permettent aux modèles locaux d’être combinés pour produire le même résultat que ce qu’une descente de dégradé stochastique stochastique séquentielle aurait produit, en attente.

Pour plus d’informations, consultez La descente de dégradé stochastique parallèle avec des combiners sonores.

Consultez la section Voir également pour obtenir des liens vers des exemples d’utilisation.

Champs

FeatureColumn

Colonne de caractéristique attendue par l’entraîneur.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

Colonne d’étiquette attendue par le formateur. Peut être null, ce qui indique que l’étiquette n’est pas utilisée pour l’entraînement.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

Colonne de poids attendue par l’entraîneur. Peut être null, ce qui indique que le poids n’est pas utilisé pour l’entraînement.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)

Propriétés

Info

Pour IEstimator<TTransformer> prédire une cible à l’aide d’un modèle de classification binaire linéaire entraîné avec la descente de dégradé stochastique symbolique.

Méthodes

Fit(IDataView, LinearModelParameters)

Continue la formation d’utilisation d’un SymbolicSgdLogisticRegressionBinaryTrainer déjà formé modelParameters a Microsoft.ML.Data.BinaryPredictionTransformer.

Fit(IDataView)

Entraîne et retourne un ITransformer.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)
GetOutputSchema(SchemaShape)

Pour IEstimator<TTransformer> prédire une cible à l’aide d’un modèle de classification binaire linéaire entraîné avec la descente de dégradé stochastique symbolique.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)

Méthodes d’extension

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

Ajoutez un « point de contrôle de mise en cache » à la chaîne d’estimateur. Cela garantit que les estimateurs en aval seront entraînés par rapport aux données mises en cache. Il est utile d’avoir un point de contrôle de mise en cache avant les formateurs qui prennent plusieurs passes de données.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

Étant donné un estimateur, retournez un objet de création de package de package qui appellera un délégué une fois Fit(IDataView) appelé. Il est souvent important pour un estimateur de retourner des informations sur ce qui a été adapté, c’est pourquoi la Fit(IDataView) méthode retourne un objet spécifiquement typé, plutôt que simplement un général ITransformer. Toutefois, en même temps, IEstimator<TTransformer> sont souvent formés en pipelines avec de nombreux objets. Nous pouvons donc avoir besoin de créer une chaîne d’estimateurs via EstimatorChain<TLastTransformer> laquelle l’estimateur pour lequel nous voulons obtenir le transformateur est enterré quelque part dans cette chaîne. Pour ce scénario, nous pouvons par le biais de cette méthode attacher un délégué qui sera appelé une fois l’ajustement appelé.

S’applique à

Voir aussi