Compartilhar via


KnownStochasticOptimizer enum

Valores conhecidos de StochasticOptimizer que o serviço aceita.

Campos

Adam

Adam é o algoritmo que otimiza funções de objetivo estocástico com base em estimativas adaptáveis de momentos

Adamw

AdamW é uma variante do otimizador Adam que tem uma implementação aprimorada de decadência de peso.

None

Nenhum otimizador selecionado.

Sgd

Otimizador descendente de gradiente estocástico.