Udostępnij za pośrednictwem


SentenceSimilarityTrainer.SentenceSimilarityOptions Klasa

Definicja

public class SentenceSimilarityTrainer.SentenceSimilarityOptions : Microsoft.ML.TorchSharp.NasBert.NasBertTrainer.NasBertOptions
type SentenceSimilarityTrainer.SentenceSimilarityOptions = class
    inherit NasBertTrainer.NasBertOptions
Public Class SentenceSimilarityTrainer.SentenceSimilarityOptions
Inherits NasBertTrainer.NasBertOptions
Dziedziczenie
SentenceSimilarityTrainer.SentenceSimilarityOptions

Konstruktory

SentenceSimilarityTrainer.SentenceSimilarityOptions()

Pola

ActivationDropout

Współczynnik porzucania po funkcjach aktywacji w warstwach FFN. Powinien znajdować się w zakresie [0, 1).

(Odziedziczone po NasBertTrainer.NasBertOptions)
AdamBetas

Wersje beta optymalizatora Adama.

(Odziedziczone po NasBertTrainer.NasBertOptions)
AdamEps

Epsilon dla optymalizatora Adama.

(Odziedziczone po NasBertTrainer.NasBertOptions)
AttentionDropout

Współczynnik upuszczania dla wagi uwagi. Powinien znajdować się w zakresie [0, 1).

(Odziedziczone po NasBertTrainer.NasBertOptions)
BatchSize

Liczba próbek do użycia na potrzeby trenowania minisadowego.

(Odziedziczone po TorchSharpBaseTrainer.Options)
ClipNorm

Próg przycinania gradientów. Powinna znajdować się w zakresie [0, +Inf). 0 oznacza, że nie należy wyciąć norm.

(Odziedziczone po NasBertTrainer.NasBertOptions)
Dropout

Współczynnik porzucania w ogólnych sytuacjach. Powinien znajdować się w zakresie [0, 1).

(Odziedziczone po NasBertTrainer.NasBertOptions)
DynamicDropout

Czy używać listy rozwijanej dynamicznej.

(Odziedziczone po NasBertTrainer.NasBertOptions)
EncoderNormalizeBefore

Czy należy stosować normalizację warstw przed każdym blokiem kodera.

(Odziedziczone po NasBertTrainer.NasBertOptions)
FinalLearningRateRatio

Ostateczny wskaźnik uczenia się dla harmonogramu rozkładu wielomianowego.

(Odziedziczone po TorchSharpBaseTrainer.Options)
FreezeEncoder

Czy zablokować parametry kodera.

(Odziedziczone po NasBertTrainer.NasBertOptions)
FreezeTransfer

Czy zablokować parametry modułu transferu.

(Odziedziczone po NasBertTrainer.NasBertOptions)
LabelColumnName

Nazwa kolumny etykiety.

(Odziedziczone po TorchSharpBaseTrainer.Options)
LayerNormTraining

Czy trenować parametry normy warstwy.

(Odziedziczone po NasBertTrainer.NasBertOptions)
LearningRate

Kurs nauki dla pierwszej epoki N; wszystkie epoki N używające >LR_N. Uwaga: może to być interpretowane inaczej w zależności od harmonogramu.

(Odziedziczone po NasBertTrainer.NasBertOptions)
MaxEpoch

Zatrzymaj trenowanie w przypadku osiągnięcia tej liczby epok.

(Odziedziczone po TorchSharpBaseTrainer.Options)
PoolerDropout

Współczynnik porzucania w warstwach puli modeli językowych maskowanych. Powinien znajdować się w zakresie [0, 1).

(Odziedziczone po NasBertTrainer.NasBertOptions)
PredictionColumnName

Nazwa kolumny Przewidywania.

(Odziedziczone po TorchSharpBaseTrainer.Options)
ScoreColumnName

Nazwa kolumny Score (Generowanie wyników).

(Odziedziczone po TorchSharpBaseTrainer.Options)
Sentence1ColumnName

Pierwsza kolumna zdania.

(Odziedziczone po NasBertTrainer.NasBertOptions)
Sentence2ColumnName

Druga kolumna zdania.

(Odziedziczone po NasBertTrainer.NasBertOptions)
StartLearningRateRatio

Wskaźnik uczenia początkowego dla harmonogramu rozkładu wielomianowego.

(Odziedziczone po TorchSharpBaseTrainer.Options)
TaskType

Typ zadania, który jest powiązany z głową modelu.

(Odziedziczone po NasBertTrainer.NasBertOptions)
ValidationSet

Zestaw weryfikacji używany podczas trenowania w celu poprawy jakości modelu.

(Odziedziczone po TorchSharpBaseTrainer.Options)
WarmupRatio

Proporcja kroków rozgrzewki dla harmonogramu rozkładu wielomianowego.

(Odziedziczone po NasBertTrainer.NasBertOptions)
WeightDecay

Nieefektywność rozkładu masy ciała. Powinna znajdować się w zakresie [0, +Inf).

(Odziedziczone po TorchSharpBaseTrainer.Options)

Dotyczy