Show simple item record

dc.contributor.authorZhong, Jinfeng
dc.contributor.authorNegre, Elsa
dc.date.accessioned2021-11-30T16:34:07Z
dc.date.available2021-11-30T16:34:07Z
dc.date.issued2021
dc.identifier.urihttps://basepub.dauphine.psl.eu/handle/123456789/22326
dc.description.abstractfrCes dernières années, les besoins en intelligence artificielle (IA) explicable/interprétable ont augmenté avec l’utilisation omniprésente de l’IA dans la vie quotidienne. Les femmes/hommes ont tendance à ne pas faire confiance à un système d’IA incapable de justifier la façon dont les résultats ont été générés et le considèrent comme un système de «boîte noire». Les utilisateurs veulent qu’un système d’IA puisse non seulement fournir des résultats de haute qualité, mais aussi qu’il soit transparent dans le processus de génération de résultats, appelé «IA explicable» ou «IA interprétable». La plupart des travaux actuels sur ce que sont les explications et les interprétations dans les systèmes d’IA sont basés sur les intuitions subjectives des chercheurs sanssupport théorique solide, ni consensus commun, ni définition mathématique, ce qui peut être la cause d’une mauvaise définition et d’une ambiguïté dans l’utilisation des deux termes: interpréter et expliquer. Dans cet article, nous cherchons à lever cette ambiguïté dans le contexte de l’IA à l’aide d’un solide support théorique issu de la gestion des connaissances. Nous discutons également des méthodes d’évaluation possibles pour l’interprétabilité et l’explicabilité dans les systèmes d’IA.
dc.language.isoenen
dc.subjectinterpretability
dc.subjectexplainability
dc.subjectartificial intelligence
dc.subjectinterprétabilité
dc.subjectexplicabilité
dc.subjectintelligence artificielle
dc.subject.ddc006.3en
dc.titleAI: To interpret or to explain?
dc.typeCommunication / Conférence
dc.description.abstractenRecent years, the need and demand for explainable/interpretable artificial intelligence (AI) has been growing with the ubiquitous application of AI in our daily life. Human beings tend not to trust an AI system that cannot justify how the results have been generated, which is viewed as a "black box" system. People want that an AI system not only can providehigh-quality results but also be transparent in the result generating process, which is called "explainable AI" or "interpretable AI". Most of the state-of-art works about what are explanations and interpretations in AI systems are based on researchers’ subjective intuitions without solid theory support, neither common consensus nor mathematical definitions have been achieved, which may be the cause of ill definitions and ambiguity in the use of the two terms: interpret and explain. In this paper, we seek to disambiguate the use of interpret and explain in the context of AI with the help of solid theory support from knowledge management. We also discuss possible evaluation methods for interpretability and explainability in AI systems respectively.
dc.subject.ddclabelIntelligence artificielleen
dc.relation.conftitleCongrès Inforsid 2021
dc.relation.confdate2021-06
dc.relation.confcityDijon
dc.relation.confcountryFRANCE
dc.relation.forthcomingnonen
dc.description.ssrncandidatenon
dc.description.halcandidateoui
dc.description.readershiprecherche
dc.description.audienceInternational
dc.date.updated2022-10-05T10:33:00Z
hal.description.error<?xml version="1.0" encoding="utf-8"?> <sword:error xmlns:sword="http://purl.org/net/sword/error/" xmlns="http://www.w3.org/2005/Atom" href="http://purl.org/net/sword/error/ErrorBadRequest"> <title>ERROR</title> <updated>2021-11-30T17:34:08+01:00</updated> <author> <name>HAL SWORD API Server</name> </author> <source> <generator uri="https://api.archives-ouvertes.fr/sword" version="1.0">hal@ccsd.cnrs.fr</generator> </source> <summary>Some parameters sent with the request were not understood</summary> <sword:treatment>processing failed</sword:treatment> <sword:verboseDescription>{"meta":{"country":{"notInArray":"'france' ne fait pas partie des valeurs attendues"}}}</sword:verboseDescription> <link rel="alternate" href="https://api.archives-ouvertes.fr" type="text/html"/> </sword:error>
hal.update-error.statusnewSubmission


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record