KnownStochasticOptimizer enum
Valeurs connues de StochasticOptimizer que le service accepte.
Champs
Adam | Adam est un algorithme qui optimise les fonctions d’objectif stochastiques basées sur des estimations adaptatives des moments |
Adamw | AdamW est une variante de l’optimiseur Adam qui a une implémentation améliorée de la décomposition de poids. |
None | Aucun optimiseur sélectionné. |
Sgd | Optimiseur de descente de gradient stochastique. |