SgdNonCalibratedTrainer Klasa
Definicja
Ważne
Niektóre informacje odnoszą się do produktu w wersji wstępnej, który może zostać znacząco zmodyfikowany przed wydaniem. Firma Microsoft nie udziela żadnych gwarancji, jawnych lub domniemanych, w odniesieniu do informacji podanych w tym miejscu.
Metoda IEstimator<TTransformer> trenowania regresji logistycznej przy użyciu metody gradientu stochastycznego równoległego.
public sealed class SgdNonCalibratedTrainer : Microsoft.ML.Trainers.SgdBinaryTrainerBase<Microsoft.ML.Trainers.LinearBinaryModelParameters>
type SgdNonCalibratedTrainer = class
inherit SgdBinaryTrainerBase<LinearBinaryModelParameters>
Public NotInheritable Class SgdNonCalibratedTrainer
Inherits SgdBinaryTrainerBase(Of LinearBinaryModelParameters)
- Dziedziczenie
-
LinearTrainerBase<BinaryPredictionTransformer<TModel>,TModel>SgdNonCalibratedTrainer
Uwagi
Aby utworzyć ten trener, użyj sgdNonCalibrated lub SgdNonCalibrated(Options).
Kolumny wejściowe i wyjściowe
Dane kolumny etykiety wejściowej muszą mieć wartość Boolean. Dane wejściowe funkcji kolumny muszą być znanym wektorem o rozmiarze Single. Ten trener generuje następujące kolumny:
Nazwa kolumny wyjściowej | Typ kolumny | Opis |
---|---|---|
Score |
Single | Niezwiązany wynik, który został obliczony przez model. |
PredictedLabel |
Boolean | Przewidywana etykieta na podstawie znaku wyniku. Wynik ujemny mapuje na false wartości i wynik dodatni jest mapowy na true . |
Cechy trenera
Zadanie uczenia maszynowego | Klasyfikacja binarna |
Czy normalizacja jest wymagana? | Tak |
Czy buforowanie jest wymagane? | Nie |
Wymagane narzędzie NuGet oprócz Microsoft.ML | Brak |
Eksportowanie do pliku ONNX | Tak |
Szczegóły algorytmu trenowania
Stochastic Gradient Descent (SGD) jest jedną z popularnych procedur optymalizacji stochastycznej, które można zintegrować z kilkoma zadaniami uczenia maszynowego w celu osiągnięcia najnowocześniejszej wydajności. Ten trener implementuje Hogwild Stochastic Gradient Descent do klasyfikacji binarnej, która obsługuje wielowątkowe bez blokady. Jeśli skojarzony problem optymalizacji jest rozrzedzone, Hogwild Stochastic Gradient Descent osiąga niemal optymalną szybkość zbieżności. Aby uzyskać więcej informacji na temat zejścia gradientu Hogwild Stochastic, można znaleźć tutaj.
Zapoznaj się z sekcją Zobacz również, aby uzyskać linki do przykładów użycia.
Pola
FeatureColumn |
Kolumna funkcji, której oczekuje trener. (Odziedziczone po TrainerEstimatorBase<TTransformer,TModel>) |
LabelColumn |
Kolumna etykiety, którą oczekuje trener. Może to być |
WeightColumn |
Kolumna wagi, którą oczekuje trener. Może to być |
Właściwości
Info |
Metoda IEstimator<TTransformer> trenowania regresji logistycznej przy użyciu metody gradientu stochastycznego równoległego. (Odziedziczone po SgdBinaryTrainerBase<TModel>) |
Metody
Fit(IDataView, LinearModelParameters) |
Kontynuuje trenowanie SdcaLogisticRegressionBinaryTrainer przy użyciu już wytrenowanego |
Fit(IDataView) |
Trenuje i zwraca wartość ITransformer. (Odziedziczone po TrainerEstimatorBase<TTransformer,TModel>) |
GetOutputSchema(SchemaShape) |
Metoda IEstimator<TTransformer> trenowania regresji logistycznej przy użyciu metody gradientu stochastycznego równoległego. (Odziedziczone po TrainerEstimatorBase<TTransformer,TModel>) |
Metody rozszerzania
AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment) |
Dołącz punkt kontrolny buforowania do łańcucha narzędzia do szacowania. Zapewni to, że narzędzia do szacowania podrzędnego zostaną wytrenowane względem buforowanych danych. Warto mieć punkt kontrolny buforowania, zanim trenerzy przejmą wiele danych. |
WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>) |
Biorąc pod uwagę narzędzie do szacowania, zwróć obiekt opakowujący, który wywoła delegata po Fit(IDataView) wywołaniu. Często ważne jest, aby narzędzie do szacowania zwracało informacje o tym, co było odpowiednie, dlatego Fit(IDataView) metoda zwraca specjalnie wpisany obiekt, a nie tylko ogólną ITransformerwartość . Jednak w tym samym czasie IEstimator<TTransformer> często są tworzone w potoki z wieloma obiektami, więc może być konieczne utworzenie łańcucha narzędzi do szacowania za pośrednictwem EstimatorChain<TLastTransformer> miejsca, w którym narzędzie do szacowania, dla którego chcemy uzyskać transformator jest pochowany gdzieś w tym łańcuchu. W tym scenariuszu możemy za pomocą tej metody dołączyć delegata, który zostanie wywołany po wywołaniu dopasowania. |