Partager via


KnownStochasticOptimizer enum

Valeurs connues de StochasticOptimizer que le service accepte.

Champs

Adam

Adam est un algorithme qui optimise les fonctions d’objectif stochastiques basées sur des estimations adaptatives des moments

Adamw

AdamW est une variante de l’optimiseur Adam qui a une implémentation améliorée de la décomposition de poids.

None

Aucun optimiseur sélectionné.

Sgd

Optimiseur de descente de gradient stochastique.