Show simple item record

Learning in Mean Field Games

dc.contributorParis Sciences et Lettres
dc.contributor.advisorCardaliaguet, Pierre
dc.contributor.advisorLaraki, Rida
hal.structure.identifier
dc.contributor.authorHadikhanloo, Saeed*
dc.date.accessioned2018-03-29T10:14:11Z
dc.date.available2018-03-29T10:14:11Z
dc.date.issued2018-01-29
dc.identifier.urihttps://basepub.dauphine.fr/handle/123456789/17611
dc.description.abstractfrLes jeux à champ moyen (MFG) sont une classe de jeux différentiels dans lequel chaque agent est infinitésimal et interagit avec une énorme population d'agents. Dans cette thèse, nous soulevons la question de la formation effective de l'équilibre MFG. En effet, le jeu étant très complexe, il est irréaliste de supposer que les agents peuvent réellement calculer la configuration d'équilibre. Cela semble indiquer que si la configuration d'équilibre se présente, c'est parce que les agents ont appris à jouer au jeu. Donc, la question principale est de trouver des procédures d'apprentissage dans les jeux à champ moyen et d'analyser leurs convergences vers un équilibre. Nous nous sommes inspirés par des schémas d'apprentissage dans les jeux statiques et avons essayé de les appliquer à notre modèle dynamique de MFG. Nous nous concentrons particulièrement sur les applications de fictitious play et online mirror descent sur différents types de jeux de champs moyens : Potentiel, Monotone ou Discret.fr
dc.language.isoen
dc.subjectJeux à champ moyenfr
dc.subjectContrôle optimalfr
dc.subjectFictitious playfr
dc.subjectAlgorithme de descente miroirfr
dc.subjectMean field gamesen
dc.subjectOptimal controlen
dc.subjectFictitious playen
dc.subjectOnline mirror descent algorithm
dc.subject.ddc519
dc.titleApprentissage dans les jeux à champ moyenfr
dc.titleLearning in Mean Field Gamesen
dc.typeThèse
dc.contributor.editoruniversityUniversité Paris Dauphine
dc.description.abstractenMean Field Games (MFG) are a class of differential games in which each agent is infinitesimal and interacts with a huge population of other agents. In this thesis, we raise the question of the actual formation of the MFG equilibrium. Indeed, the game being quite involved, it is unrealistic to assume that the agents can compute the equilibrium configuration. This seems to indicate that, if the equilibrium configuration arises, it is because the agents have learned how to play the game. Hence the main question is to find learning procedures in mean field games and investigating if they converge to an equilibrium. We have inspired from the learning schemes in static games and tried to apply them to our dynamical model of MFG. We especially focus on fictitious play and online mirror descent applications on different types of mean field games; those are either Potential, Monotone or Discrete.en
dc.identifier.theseid2018PSLED001
dc.subject.ddclabelProbabilités et mathématiques appliquées
hal.author.functionaut


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record