dc.contributor.author | Zhong, Jinfeng | |
dc.contributor.author | Negre, Elsa | |
dc.date.accessioned | 2022-02-23T11:10:53Z | |
dc.date.available | 2022-02-23T11:10:53Z | |
dc.date.issued | 2022 | |
dc.identifier.uri | https://basepub.dauphine.psl.eu/handle/123456789/22734 | |
dc.description.abstractfr | Ces dernières années ont vu croître le déploiement des systèmes de recommandation en tant qu'outils d'aide à la décision. Les systèmes de recommandation sont omniprésents dans notre vie quotidienne. Les algorithmes utilisés dans les systèmes de recommandation deviennent de plus en plus impénétrables, si bien que certains systèmes de recommandation restent des boîtes noires pour la plupart des utilisateurs. De fait, les utilisateurs ont du mal à faire pleinement confiance à de tels systèmes. Par conséquent, l'amélioration des interactions entre utilisateurs et systèmes de recommandation attire de plus en plus l'attention. L'un des sujets populaires au sein de la communauté scientifique est l'explication des recommandations. Dans cet article, nous étudions la possibilité de fournir des explications contextuelles pour les recommandations et discutons des méthodes potentielles d'évaluation de telles explications. | |
dc.language.iso | fr | en |
dc.subject | systèmes de recommandation | |
dc.subject.ddc | 006.3 | en |
dc.title | Vers l'amélioration des interactions entre utilisateurs et systèmes de recommandation | |
dc.type | Communication / Conférence | |
dc.subject.ddclabel | Intelligence artificielle | en |
dc.relation.conftitle | ATELIER EXPLAIN'AI Hébergé à la conférence EGC 2022 | |
dc.relation.confdate | 2022-01 | |
dc.relation.confcity | Blois | |
dc.relation.confcountry | FRANCE | |
dc.relation.forthcoming | non | en |
dc.description.ssrncandidate | non | |
dc.description.halcandidate | non | |
dc.description.readership | recherche | |
dc.description.audience | National | |
dc.date.updated | 2022-10-05T10:32:21Z | |