microsoftml.sgd_optimizer : descente de gradient stochastique
Usage
microsoftml.sgd_optimizer(learning_rate: numbers.Real = None,
momentum: numbers.Real = None, nag: bool = None,
weight_decay: numbers.Real = None,
l_rate_red_ratio: numbers.Real = None,
l_rate_red_freq: numbers.Real = None,
l_rate_red_error_ratio: numbers.Real = None)
Description
Optimiseur de descente de gradient stochastique.
Arguments
learning_rate
Taux d'apprentissage (paramètres).
momentum
Dynamique (paramètres).
nag
Utilisez le gradient accéléré de Nesterov (paramètres).
weight_decay
Décroissance de la pondération (paramètres).
l_rate_red_ratio
Ratio de réduction du taux d'apprentissage (paramètres).
l_rate_red_freq
Ratio de réduction du taux d'apprentissage (paramètres).
l_rate_red_error_ratio
Critère de réduction de l'erreur relative pour la réduction du taux d'apprentissage (paramètres).