• xmlui.mirage2.page-structure.header.title
    • français
    • English
  • Aide
  • Connexion
  • Langue 
    • Français
    • English
Consulter le document 
  •   Accueil
  • CEREMADE (UMR CNRS 7534)
  • CEREMADE : Publications
  • Consulter le document
  •   Accueil
  • CEREMADE (UMR CNRS 7534)
  • CEREMADE : Publications
  • Consulter le document
JavaScript is disabled for your browser. Some features of this site may not work without it.

Afficher

Toute la baseCentres de recherche & CollectionsAnnée de publicationAuteurTitreTypeCette collectionAnnée de publicationAuteurTitreType

Mon compte

Connexion

Enregistrement

Statistiques

Documents les plus consultésStatistiques par paysAuteurs les plus consultés
Thumbnail

Stochastic Runge-Kutta methods and adaptive SGD-G2 stochastic gradient descent

Ayadi, Imen; Turinici, Gabriel (2021), Stochastic Runge-Kutta methods and adaptive SGD-G2 stochastic gradient descent, 25th International Conference on Pattern Recognition (ICPR 2020), IEEE - Institute of Electrical and Electronics Engineers : Piscataway, NJ, p. 1-16. 10.1109/ICPR48806.2021.9412831

Voir/Ouvrir
turinici_ayadi2020-rk-adaptive-sgd.pdf (449.1Kb)
Type
Communication / Conférence
Date
2021
Titre du colloque
25th International Conference on Pattern Recognition (ICPR)
Date du colloque
2021-01
Ville du colloque
Milan
Pays du colloque
Italy
Titre de l'ouvrage
25th International Conference on Pattern Recognition (ICPR 2020)
Éditeur
IEEE - Institute of Electrical and Electronics Engineers
Ville d’édition
Piscataway, NJ
Pages
1-16
Identifiant publication
10.1109/ICPR48806.2021.9412831
Métadonnées
Afficher la notice complète
Auteur(s)
Ayadi, Imen
CEntre de REcherches en MAthématiques de la DEcision [CEREMADE]
Turinici, Gabriel cc
CEntre de REcherches en MAthématiques de la DEcision [CEREMADE]
Résumé (EN)
The minimization of the loss function is of paramount importance in deep neural networks. On the other hand, many popular optimization algorithms have been shown to correspond to some evolution equation of gradient flow type. Inspired by the numerical schemes used for general evolution equations we introduce a second order stochastic Runge Kutta method and show that it yields a consistent procedure for the minimization of the loss function. In addition it can be coupled, in an adaptive framework, with a Stochastic Gradient Descent (SGD) to adjust automatically the learning rate of the SGD, without the need of any additional information on the Hessian of the loss functional. The adaptive SGD, called SGD-G2, is successfully tested on standard datasets.
Mots-clés
SGD; stochastic gradient descent; Machine Learning; adaptive stochastic gradient; deep learning optimization; neural networks optimization

Publications associées

Affichage des éléments liés par titre et auteur.

  • Vignette de prévisualisation
    The convergence of the Stochastic Gradient Descent (SGD) : a self-contained proof 
    Turinici, Gabriel (2021) Document de travail / Working paper
  • Vignette de prévisualisation
    Second-order in time schemes for gradient flows in Wasserstein and geodesic metric spaces 
    Legendre, Guillaume; Turinici, Gabriel (2017) Article accepté pour publication ou publié
  • Vignette de prévisualisation
    Metric gradient flows with state dependent functionals: the Nash-MFG equilibrium flows and their numerical schemes 
    Turinici, Gabriel (2017) Article accepté pour publication ou publié
  • Vignette de prévisualisation
    A relaxed proximal gradient descent algorithm for convergent plug-and-play with proximal denoiser 
    Hurault, Samuel; Chambolle, Antonin; Leclaire, Arthur; Papadakis, Nicolas (2023) Document de travail / Working paper
  • Vignette de prévisualisation
    Stochastic Primal Dual Hybrid Gradient Algorithm with Adaptive Step-Sizes 
    Chambolle, Antonin; Delplancke, Claire; Ehrhardt, Matthias; Schönlieb, Carola-Bibiane; Tang, Junqi (2023) Document de travail / Working paper
Dauphine PSL Bibliothèque logo
Place du Maréchal de Lattre de Tassigny 75775 Paris Cedex 16
Tél. : 01 44 05 40 94
Contact
Dauphine PSL logoEQUIS logoCreative Commons logo