Condividi tramite


SgdCalibratedTrainer Classe

Definizione

Oggetto IEstimator<TTransformer> per il training della regressione logistica usando un metodo sfumato stocastico parallelo. Il modello sottoposto a training viene calibrato e può produrre probabilità inserendo il valore di output della funzione lineare a un oggetto PlattCalibrator.

public sealed class SgdCalibratedTrainer : Microsoft.ML.Trainers.SgdBinaryTrainerBase<Microsoft.ML.Calibrators.CalibratedModelParametersBase<Microsoft.ML.Trainers.LinearBinaryModelParameters,Microsoft.ML.Calibrators.PlattCalibrator>>
type SgdCalibratedTrainer = class
    inherit SgdBinaryTrainerBase<CalibratedModelParametersBase<LinearBinaryModelParameters, PlattCalibrator>>
Public NotInheritable Class SgdCalibratedTrainer
Inherits SgdBinaryTrainerBase(Of CalibratedModelParametersBase(Of LinearBinaryModelParameters, PlattCalibrator))
Ereditarietà

Commenti

Per creare questo formatore, usare SgdCalibrated o SgdCalibrated(Options).

Colonne di input e output

I dati della colonna dell'etichetta di input devono essere Boolean. I dati delle colonne delle funzionalità di input devono essere un vettore di dimensioni note di Single.

Questo formatore restituisce le colonne seguenti:

Nome colonna di output Tipo di colonna Descrizione
Score Single Punteggio non associato calcolato dal modello.
PredictedLabel Boolean L'etichetta stimata, in base al segno del punteggio. Un punteggio negativo esegue il mapping a false e un punteggio negativo esegue il mapping a true.
Probability Single Probabilità calcolata calibrando il punteggio di avere true come etichetta. Il valore di probabilità è compreso nell'intervallo [0, 1].

Caratteristiche del formatore

Attività di Machine Learning Classificazione binaria
La normalizzazione è necessaria?
La memorizzazione nella cache è necessaria? No
NuGet richiesto oltre a Microsoft.ML Nessuno
Esportabile in ONNX

Dettagli algoritmo di training

La discesa stocastica del gradiente (SGD) è una delle procedure di ottimizzazione stocastiche più diffuse che possono essere integrate in diverse attività di Machine Learning per ottenere prestazioni all'avanguardia. Questo trainer implementa la discesa stocastica stocastica di Hogwild per la classificazione binaria che supporta il multithreading senza alcun blocco. Se il problema di ottimizzazione associato è sparse, Hogwild Stochastic Gradient Descent ottiene un tasso di convergenza quasi ottimale. Per altre informazioni su Hogwild Stochastic Gradient Descent(Discesa del gradiente stocastico) sono disponibili qui.

Vedere la sezione Vedere anche per i collegamenti ad esempi di utilizzo.

Campi

FeatureColumn

Colonna di funzionalità prevista dal formatore.

(Ereditato da TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

Colonna dell'etichetta prevista dal formatore. Può essere null, che indica che l'etichetta non viene usata per il training.

(Ereditato da TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

Colonna di peso prevista dal formatore. Può essere null, che indica che il peso non viene usato per il training.

(Ereditato da TrainerEstimatorBase<TTransformer,TModel>)

Proprietà

Info

Oggetto IEstimator<TTransformer> per il training della regressione logistica usando un metodo sfumato stocastico parallelo. Il modello sottoposto a training viene calibrato e può produrre probabilità inserendo il valore di output della funzione lineare a un oggetto PlattCalibrator.

(Ereditato da SgdBinaryTrainerBase<TModel>)

Metodi

Fit(IDataView, LinearModelParameters)

Continua il training di un SdcaLogisticRegressionBinaryTrainer oggetto utilizzando un oggetto già sottoposto a modelParameters training e restituisce un oggetto Microsoft.ML.Data.BinaryPredictionTransformer.

(Ereditato da SgdBinaryTrainerBase<TModel>)
Fit(IDataView)

Esegue il training e restituisce un oggetto ITransformer.

(Ereditato da TrainerEstimatorBase<TTransformer,TModel>)
GetOutputSchema(SchemaShape)

Oggetto IEstimator<TTransformer> per il training della regressione logistica usando un metodo sfumato stocastico parallelo. Il modello sottoposto a training viene calibrato e può produrre probabilità inserendo il valore di output della funzione lineare a un oggetto PlattCalibrator.

(Ereditato da TrainerEstimatorBase<TTransformer,TModel>)

Metodi di estensione

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

Aggiungere un "checkpoint di memorizzazione nella cache" alla catena di stima. Ciò garantisce che gli estimatori downstream vengano sottoposti a training in base ai dati memorizzati nella cache. È utile avere un checkpoint di memorizzazione nella cache prima che i formatori eseseguono più passaggi di dati.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

Dato un estimator, restituire un oggetto wrapping che chiamerà un delegato una volta Fit(IDataView) chiamato. È spesso importante che uno strumento di stima restituisca informazioni sull'adattamento, motivo per cui il Fit(IDataView) metodo restituisce un oggetto tipizzato in modo specifico, anziché solo un oggetto generale ITransformer. Tuttavia, allo stesso tempo, IEstimator<TTransformer> vengono spesso formati in pipeline con molti oggetti, quindi potrebbe essere necessario creare una catena di estimatori tramite EstimatorChain<TLastTransformer> dove lo strumento di stima per il quale si vuole ottenere il trasformatore è sepolto in una posizione in questa catena. Per questo scenario, è possibile collegare un delegato che verrà chiamato una volta chiamato fit.

Si applica a

Vedi anche