Partilhar via


KnownStochasticOptimizer enum

Os valores conhecidos de StochasticOptimizer que o serviço aceita.

Campos

Adam

Adam é o algoritmo que otimiza funções objetivas estocásticas com base em estimativas adaptativas de momentos

Adamw

AdamW é uma variante do otimizador Adam que tem uma implementação melhorada de decaimento de peso.

None

Nenhum otimizador selecionado.

Sgd

Otimizador de descida de gradiente estocástico.