Dela via


KnownStochasticOptimizer enum

Kända värden för StochasticOptimizer som tjänsten accepterar.

Fält

Adam

Adam är en algoritm som optimerar stokastiska målfunktioner baserat på anpassningsbara uppskattningar av ögonblick

Adamw

AdamW är en variant av optimeraren Adam som har en förbättrad implementering av viktförfall.

None

Ingen optimerare har valts.

Sgd

Stochastic Gradient Descent optimizer.