• xmlui.mirage2.page-structure.header.title
    • français
    • English
  • Help
  • Login
  • Language 
    • Français
    • English
View Item 
  •   BIRD Home
  • LAMSADE (UMR CNRS 7243)
  • LAMSADE : Publications
  • View Item
  •   BIRD Home
  • LAMSADE (UMR CNRS 7243)
  • LAMSADE : Publications
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Browse

BIRDResearch centres & CollectionsBy Issue DateAuthorsTitlesTypeThis CollectionBy Issue DateAuthorsTitlesType

My Account

LoginRegister

Statistics

Most Popular ItemsStatistics by CountryMost Popular Authors
Thumbnail

Sélection efficace de variables par montée par coordonnée avec garanties théoriques

Saltiel, David; Benhamou, Éric (2019), Sélection efficace de variables par montée par coordonnée avec garanties théoriques. https://basepub.dauphine.psl.eu/handle/123456789/22885

View/Open
cap2019.pdf (560.9Kb)
Type
Document de travail / Working paper
Date
2019
Series title
Preprint Lamsade
Published in
Paris
Metadata
Show full item record
Author(s)
Saltiel, David
Benhamou, Éric
Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision [LAMSADE]
Abstract (FR)
Malgré l'avènement de l'apprentissage par représentation, principalement par le biais d'apprentissage profond, la sélection des variables (features) reste un élément clé de nombreux scénarios d'apprentissage automatique. Cet article présente une nouvelle méthode théoriquement motivée pour la sélection des features. Cette approche traite le problème de la sélection des features par le biais de méthodes d'optimisation par coordonnées en tenant compte des dépendances des variables, matérialisant ces dernières par blocs. Le faible nombre d'itérations (jusqu'à la convergence de la méthode) atteste de l'efficacité des méthodes de gradient boosting (par exemple l'algorithme XG-Boost) pour ces problèmes d'apprentissage supervisé. Dans le cas de fonctions convexes et lisses, nous pouvons prouver que le taux de convergence est polynomial en terme de dimension de l'ensemble complet des features. Nous comparons les résultats obtenues avec des méthodes faisant l'état de l'art de la sélection des features : Recursive Features Elimination (RFE) et Binary Coordinate Ascent (BCA), afin de montrer que cette nouvelle méthode est compétitive.
Subjects / Keywords
CAP; sélection des features; montée par coordonnée; de gradient boosting

Related items

Showing items related by title and author.

  • Thumbnail
    Sélection efficace de variables par descente par coordonnée avec garanties théoriques 
    Saltiel, David; Benhamou, Éric (2019) Document de travail / Working paper
  • Thumbnail
    Trade Selection with Supervised Learning and OCA 
    Saltiel, David; Benhamou, Eric (2018) Document de travail / Working paper
  • Thumbnail
    Feature selection with optimal coordinate ascent (OCA) 
    Saltiel, David; Benhamou, Eric (2018-12) Document de travail / Working paper
  • Thumbnail
    Time your hedge with Deep Reinforcement Learning 
    Benhamou, Éric; Saltiel, David; Ungari, Sandrine; Mukhopadhyay, Abhishek (2020) Document de travail / Working paper
  • Thumbnail
    Distinguish the indistinguishable: a Deep Reinforcement Learning approach for volatility targeting models 
    Benhamou, Éric; Saltiel, David; Tabachnik, Serge; Wong, Sui Kai; Chareyron, François (2021) Document de travail / Working paper
Dauphine PSL Bibliothèque logo
Place du Maréchal de Lattre de Tassigny 75775 Paris Cedex 16
Phone: 01 44 05 40 94
Contact
Dauphine PSL logoEQUIS logoCreative Commons logo