Show simple item record

dc.contributor.authorGuillin, Arnaud
dc.contributor.authorMarin, Jean-Michel
dc.contributor.authorRobert, Christian P.
dc.date.accessioned2011-04-27T14:05:19Z
dc.date.available2011-04-27T14:05:19Z
dc.date.issued2005
dc.identifier.urihttps://basepub.dauphine.fr/handle/123456789/6070
dc.description.abstractfrEn estimation bayésienne, lorsque le calcul explicite de la loi a posteriori du vecteur des paramètres à estimer est impossible, les méthodes de Monte-Carlo par chaînes de Markov (MCMC) [Robert and Casella, 1999] permettent théoriquement de fournir un échantillon approximativement distribué suivant cette loi. Il est alors possible d’utiliser ce dernier afin d’estimer l’espérance mathématique a posteriori de n’importe quelle fonction du vecteur paramétrique. Depuis le début des années 90, ces méthodes sont très utilisées et leurs bonnes performances sont mises en exergue. Cet engouement a peu à peu marginalisé l’utilisation des méthodes d'échantillonnage préférentiel [Rubinstein, 1981, Ripley, 1987] qui leur sont antérieures. Dans cet article, nous montrons qu’il est possible d’améliorer le schéma d’échantillonnage préférentiel classique en lui introduisant une dimension temporelle assurant son adaptativité. Il s’agit de l’algorithme Population Monte Carlo (PMC) proposé par Cappé et al. [2004]. Nous illustrons les bonnes propriétés d’un tel schéma sur un modèle ARMA à changement de régime markovien latent [Hamilton, 1988, 1989] pour lequel les méthodes MCMC génériques ne fournissent pas toujours des approximations satisfaisantes.en
dc.language.isofren
dc.subjectBayesian inferenceen
dc.subjectMCMC approximationsen
dc.subjectimportance samplingen
dc.subjectadaptive algorithmsen
dc.subjectPMC schemeen
dc.subjecthidden Markov chainsen
dc.subjectswitching AR modelsen
dc.subjectStatistique bayésienneen
dc.subjectméthodes MCMCen
dc.subjectfonction d’importanceen
dc.subjectadaptativitéen
dc.subjectschéma PMCen
dc.subjectchaînes de Markov cachéesen
dc.subjectmodèles auto-régressifs à sautsen
dc.subject.ddc519en
dc.subject.classificationjelC11en
dc.titleEstimation bayésienne approximative par échantillonnage préférentielen
dc.typeArticle accepté pour publication ou publié
dc.description.abstractenFor numerous models, it is impossible to conduct an exact Bayesian inference. There are many cases where the derivation of the posterior distribution leads to intractable calculations (due to the fact that this generally involves intractable integrations). The Bayesian computational literature has been dominated by the development of simulation approximations based on Markov chains, the famous Markov Chains Monte Carlo (MCMC) methods [Robert and Ca- sella, 1999].However, the more complicated the model, (especially if there are many parameters and/or hyperparameters), the more expensive theMCMC approaches become, in terms of time and storage. Moreover, it is difficult to monitor the convergence of Monte Carlo schemes. As an alternative to the use of the MCMC approximations, Cappé et al. [2004] have shown that the notion of importance sampling [Rubinstein, 1981, Ripley, 1987] can actually be greatly generalized to encompassmuchmore adaptive and local schemes than thought previously. This leads to the Population Monte Carlo (PMC) algorithm. We illustrate here the good properties of this scheme on a switching ARMA model [Hamilton, 1988, 1989] for which the MCMC approximations are less satisfactory.en
dc.relation.isversionofjnlnameRevue de Statistique appliquée
dc.relation.isversionofjnlvol53en
dc.relation.isversionofjnlissue1en
dc.relation.isversionofjnldate2005
dc.relation.isversionofjnlpages79-95en
dc.identifier.urlsitehttp://www.numdam.org/item?id=RSA_2005__53_1_79_0en
dc.description.sponsorshipprivateouien
dc.relation.isversionofjnlpublisherSociété de statistique de Franceen
dc.subject.ddclabelProbabilités et mathématiques appliquéesen
hal.person.labIds
hal.person.labIds
hal.person.labIds


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record