Udostępnij za pośrednictwem


SgdCalibratedTrainer Klasa

Definicja

Metoda IEstimator<TTransformer> trenowania regresji logistycznej przy użyciu metody gradientu stochastycznego równoległego. Wytrenowany model jest skalibrowany i może generować prawdopodobieństwo, przekazując wartość wyjściową funkcji liniowej do klasy PlattCalibrator.

public sealed class SgdCalibratedTrainer : Microsoft.ML.Trainers.SgdBinaryTrainerBase<Microsoft.ML.Calibrators.CalibratedModelParametersBase<Microsoft.ML.Trainers.LinearBinaryModelParameters,Microsoft.ML.Calibrators.PlattCalibrator>>
type SgdCalibratedTrainer = class
    inherit SgdBinaryTrainerBase<CalibratedModelParametersBase<LinearBinaryModelParameters, PlattCalibrator>>
Public NotInheritable Class SgdCalibratedTrainer
Inherits SgdBinaryTrainerBase(Of CalibratedModelParametersBase(Of LinearBinaryModelParameters, PlattCalibrator))
Dziedziczenie

Uwagi

Aby utworzyć ten trener, użyj sgdCalibrated lub SgdCalibrated(Options).

Kolumny wejściowe i wyjściowe

Dane kolumny etykiety wejściowej muszą mieć wartość Boolean. Dane wejściowe funkcji kolumny muszą być znanym wektorem o rozmiarze Single.

Ten trener generuje następujące kolumny:

Nazwa kolumny wyjściowej Typ kolumny Opis
Score Single Niezwiązany wynik, który został obliczony przez model.
PredictedLabel Boolean Przewidywana etykieta na podstawie znaku wyniku. Wynik ujemny mapuje na false wartości i wynik dodatni jest mapowy na true.
Probability Single Prawdopodobieństwo obliczone przez kalibrowanie wyniku wartości true jako etykiety. Wartość prawdopodobieństwa jest w zakresie [0, 1].

Cechy trenera

Zadanie uczenia maszynowego Klasyfikacja binarna
Czy normalizacja jest wymagana? Tak
Czy buforowanie jest wymagane? Nie
Wymagane narzędzie NuGet oprócz Microsoft.ML Brak
Eksportowanie do pliku ONNX Tak

Szczegóły algorytmu trenowania

Stochastic Gradient Descent (SGD) jest jedną z popularnych procedur optymalizacji stochastycznej, które można zintegrować z kilkoma zadaniami uczenia maszynowego w celu osiągnięcia najnowocześniejszej wydajności. Ten trener implementuje Hogwild Stochastic Gradient Descent do klasyfikacji binarnej, która obsługuje wielowątkowe bez blokady. Jeśli skojarzony problem optymalizacji jest rozrzedzone, Hogwild Stochastic Gradient Descent osiąga niemal optymalną szybkość zbieżności. Aby uzyskać więcej informacji na temat zejścia gradientu Hogwild Stochastic, można znaleźć tutaj.

Zapoznaj się z sekcją Zobacz również, aby uzyskać linki do przykładów użycia.

Pola

FeatureColumn

Kolumna funkcji, której oczekuje trener.

(Odziedziczone po TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

Kolumna etykiety, którą oczekuje trener. Może to być nullwartość , która wskazuje, że etykieta nie jest używana do trenowania.

(Odziedziczone po TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

Kolumna wagi, którą oczekuje trener. Może to być null, co wskazuje, że waga nie jest używana do trenowania.

(Odziedziczone po TrainerEstimatorBase<TTransformer,TModel>)

Właściwości

Info

Metoda IEstimator<TTransformer> trenowania regresji logistycznej przy użyciu metody gradientu stochastycznego równoległego. Wytrenowany model jest skalibrowany i może generować prawdopodobieństwo, przekazując wartość wyjściową funkcji liniowej do klasy PlattCalibrator.

(Odziedziczone po SgdBinaryTrainerBase<TModel>)

Metody

Fit(IDataView, LinearModelParameters)

Kontynuuje trenowanie SdcaLogisticRegressionBinaryTrainer przy użyciu już wytrenowanego modelParameters i zwraca wartość Microsoft.ML.Data.BinaryPredictionTransformer.

(Odziedziczone po SgdBinaryTrainerBase<TModel>)
Fit(IDataView)

Trenuje i zwraca wartość ITransformer.

(Odziedziczone po TrainerEstimatorBase<TTransformer,TModel>)
GetOutputSchema(SchemaShape)

Metoda IEstimator<TTransformer> trenowania regresji logistycznej przy użyciu metody gradientu stochastycznego równoległego. Wytrenowany model jest skalibrowany i może generować prawdopodobieństwo, przekazując wartość wyjściową funkcji liniowej do klasy PlattCalibrator.

(Odziedziczone po TrainerEstimatorBase<TTransformer,TModel>)

Metody rozszerzania

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

Dołącz punkt kontrolny buforowania do łańcucha narzędzia do szacowania. Zapewni to, że narzędzia do szacowania podrzędnego zostaną wytrenowane względem buforowanych danych. Warto mieć punkt kontrolny buforowania, zanim trenerzy przejmą wiele danych.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

Biorąc pod uwagę narzędzie do szacowania, zwróć obiekt opakowujący, który wywoła delegata po Fit(IDataView) wywołaniu. Często ważne jest, aby narzędzie do szacowania zwracało informacje o tym, co było odpowiednie, dlatego Fit(IDataView) metoda zwraca specjalnie wpisany obiekt, a nie tylko ogólną ITransformerwartość . Jednak w tym samym czasie IEstimator<TTransformer> często są tworzone w potoki z wieloma obiektami, więc może być konieczne utworzenie łańcucha narzędzi do szacowania za pośrednictwem EstimatorChain<TLastTransformer> miejsca, w którym narzędzie do szacowania, dla którego chcemy uzyskać transformator jest pochowany gdzieś w tym łańcuchu. W tym scenariuszu możemy za pomocą tej metody dołączyć delegata, który zostanie wywołany po wywołaniu dopasowania.

Dotyczy

Zobacz też