• xmlui.mirage2.page-structure.header.title
    • français
    • English
  • Aide
  • Connexion
  • Langue 
    • Français
    • English
Consulter le document 
  •   Accueil
  • LAMSADE (UMR CNRS 7243)
  • LAMSADE : Publications
  • Consulter le document
  •   Accueil
  • LAMSADE (UMR CNRS 7243)
  • LAMSADE : Publications
  • Consulter le document
JavaScript is disabled for your browser. Some features of this site may not work without it.

Afficher

Toute la baseCentres de recherche & CollectionsAnnée de publicationAuteurTitreTypeCette collectionAnnée de publicationAuteurTitreType

Mon compte

Connexion

Enregistrement

Statistiques

Documents les plus consultésStatistiques par paysAuteurs les plus consultés
Thumbnail - No thumbnail

Sélection efficace de variables par descente par coordonnée avec garanties théoriques

Saltiel, David; Benhamou, Éric (2019), Sélection efficace de variables par descente par coordonnée avec garanties théoriques. https://basepub.dauphine.fr/handle/123456789/21205

Type
Document de travail / Working paper
Lien vers un document non conservé dans cette base
https://hal.archives-ouvertes.fr/hal-02886506
Date
2019
Titre de la collection
Preprint Lamsade
Ville d’édition
Paris
Métadonnées
Afficher la notice complète
Auteur(s)
Saltiel, David

Benhamou, Éric
Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision [LAMSADE]
Résumé (FR)
Malgré l’avènement de l’apprentissage par représentation, principalement par le biais d’apprentissage profond, la sélection des variables (features) reste un élément clé de nombreux scénarios d’apprentissage automatique. Cet article présente une nouvelle méthode théoriquement motivée pour la sélection des features. Cette approchetraite le problème de la sélection des features par le biais de méthodes d’optimisation par coordonnéesen tenant compte des dépendances des variables, matérialisant ces dernières par blocs. Le faible nombre d’itérations (jusqu’à la convergence de la méthode) atteste de l’efficacité des méthodes de gradient boosting (par exemple l’algorithme XGBoost) pour ces problèmes d’apprentissage supervisé. Dans le cas de fonctions convexes et lisses, nous pouvons prouver que le taux de convergence est polynomial en terme de dimension de l’ensemble complet des features. Nous comparons les résultats obtenues avec des méthodes faisant l’état de l’art de la sélection des features : Recursive Features Elimination (RFE) et Binary Coordinate Ascent (BCA), afin de montrer que cette nouvelle méthode est compétitive.
Mots-clés
CAP; sélection des features; descente par coordonnée; méthode de gradient boosting

Publications associées

Affichage des éléments liés par titre et auteur.

  • Vignette de prévisualisation
    Sélection efficace de variables par montée par coordonnée avec garanties théoriques 
    Saltiel, David; Benhamou, Éric (2019) Document de travail / Working paper
  • Vignette de prévisualisation
    Trade Selection with Supervised Learning and OCA 
    Saltiel, David; Benhamou, Eric (2018) Document de travail / Working paper
  • Vignette de prévisualisation
    Feature selection with optimal coordinate ascent (OCA) 
    Saltiel, David; Benhamou, Eric (2018-12) Document de travail / Working paper
  • Vignette de prévisualisation
    Testing Sharpe ratio: luck or skill ? 
    Benhamou, Éric; Saltiel, David; Guez, Beatrice; Paris, Nicolas (2020) Document de travail / Working paper
  • Vignette de prévisualisation
    NGO-GM: Natural Gradient Optimization for Graphical Models 
    Benhamou, Éric; Atif, Jamal; Laraki, Rida; Saltiel, David (2020) Document de travail / Working paper
Dauphine PSL Bibliothèque logo
Place du Maréchal de Lattre de Tassigny 75775 Paris Cedex 16
Tél. : 01 44 05 40 94
Contact
Dauphine PSL logoEQUIS logoCreative Commons logo