TextClassificationTrainer.TextClassificationOptions Klasa
Definicja
Ważne
Niektóre informacje odnoszą się do produktu w wersji wstępnej, który może zostać znacząco zmodyfikowany przed wydaniem. Firma Microsoft nie udziela żadnych gwarancji, jawnych lub domniemanych, w odniesieniu do informacji podanych w tym miejscu.
public class TextClassificationTrainer.TextClassificationOptions : Microsoft.ML.TorchSharp.NasBert.NasBertTrainer.NasBertOptions
type TextClassificationTrainer.TextClassificationOptions = class
inherit NasBertTrainer.NasBertOptions
Public Class TextClassificationTrainer.TextClassificationOptions
Inherits NasBertTrainer.NasBertOptions
- Dziedziczenie
-
TextClassificationTrainer.TextClassificationOptions
Konstruktory
TextClassificationTrainer.TextClassificationOptions() |
Pola
ActivationDropout |
Współczynnik spadku po funkcjach aktywacji w warstwach FFN. Powinna mieścić się w zakresie [0, 1). (Odziedziczone po NasBertTrainer.NasBertOptions) |
AdamBetas |
Wersje beta optymalizatora Adama. (Odziedziczone po NasBertTrainer.NasBertOptions) |
AdamEps |
Epsilon dla optymalizatora Adama. (Odziedziczone po NasBertTrainer.NasBertOptions) |
AttentionDropout |
Współczynnik spadku uwagi. Powinna mieścić się w zakresie [0, 1). (Odziedziczone po NasBertTrainer.NasBertOptions) |
BatchSize |
Liczba próbek do użycia na potrzeby trenowania minisadowego. (Odziedziczone po TorchSharpBaseTrainer.Options) |
ClipNorm |
Próg przycinania gradientów. Powinna znajdować się w zakresie [0, +Inf). 0 oznacza, że nie należy przycinać norm. (Odziedziczone po NasBertTrainer.NasBertOptions) |
Dropout |
Współczynnik spadku w ogólnych sytuacjach. Powinna mieścić się w zakresie [0, 1). (Odziedziczone po NasBertTrainer.NasBertOptions) |
DynamicDropout |
Czy należy używać dynamicznego dropoutu. (Odziedziczone po NasBertTrainer.NasBertOptions) |
EncoderNormalizeBefore |
Czy należy zastosować normalizację warstwy przed każdym blokiem kodera. (Odziedziczone po NasBertTrainer.NasBertOptions) |
FinalLearningRateRatio |
Ostateczny wskaźnik nauki dla harmonogramu rozkładu wielomianowego. (Odziedziczone po TorchSharpBaseTrainer.Options) |
FreezeEncoder |
Czy zablokować parametry kodera. (Odziedziczone po NasBertTrainer.NasBertOptions) |
FreezeTransfer |
Czy zablokować parametry modułu transferu. (Odziedziczone po NasBertTrainer.NasBertOptions) |
LabelColumnName |
Nazwa kolumny etykiety. (Odziedziczone po TorchSharpBaseTrainer.Options) |
LayerNormTraining |
Czy trenować parametry normy warstwy. (Odziedziczone po NasBertTrainer.NasBertOptions) |
LearningRate |
Szybkość nauki dla pierwszych N epok; wszystkie epoki N używające >LR_N. Uwaga: może to być interpretowane inaczej w zależności od harmonogramu. (Odziedziczone po NasBertTrainer.NasBertOptions) |
MaxEpoch |
Zatrzymaj trenowanie w przypadku osiągnięcia tej liczby epok. (Odziedziczone po TorchSharpBaseTrainer.Options) |
PoolerDropout |
Współczynnik spadku liczby w warstwach puli modeli języka maskowanego. Powinna mieścić się w zakresie [0, 1). (Odziedziczone po NasBertTrainer.NasBertOptions) |
PredictionColumnName |
Nazwa kolumny Prediction( Przewidywanie). (Odziedziczone po TorchSharpBaseTrainer.Options) |
ScoreColumnName |
Nazwa kolumny Score (Generowanie wyników). (Odziedziczone po TorchSharpBaseTrainer.Options) |
Sentence1ColumnName |
Pierwsza kolumna zdania. (Odziedziczone po NasBertTrainer.NasBertOptions) |
Sentence2ColumnName |
Druga kolumna zdania. (Odziedziczone po NasBertTrainer.NasBertOptions) |
StartLearningRateRatio |
Wskaźnik rozpoczęcia nauki dla harmonogramu rozkładu wielomianowego. (Odziedziczone po TorchSharpBaseTrainer.Options) |
TaskType |
Typ zadania, który jest powiązany z głową modelu. (Odziedziczone po NasBertTrainer.NasBertOptions) |
ValidationSet |
Zestaw weryfikacji używany podczas trenowania w celu poprawy jakości modelu. (Odziedziczone po TorchSharpBaseTrainer.Options) |
WarmupRatio |
Proporcja kroków rozgrzewania w harmonogramie rozkładu wielomianowego. (Odziedziczone po NasBertTrainer.NasBertOptions) |
WeightDecay |
Nieefektywność rozkładu masy ciała. Powinna znajdować się w zakresie [0, +Inf). (Odziedziczone po TorchSharpBaseTrainer.Options) |