
AI: To interpret or to explain?
Zhong, Jinfeng; Negre, Elsa (2021), AI: To interpret or to explain?, Congrès Inforsid 2021, 2021-06, Dijon, FRANCE
View/ Open
Type
Communication / ConférenceDate
2021Conference title
Congrès Inforsid 2021Conference date
2021-06Conference city
DijonConference country
FRANCEMetadata
Show full item recordAbstract (FR)
Ces dernières années, les besoins en intelligence artificielle (IA) explicable/interprétable ont augmenté avec l’utilisation omniprésente de l’IA dans la vie quotidienne. Les femmes/hommes ont tendance à ne pas faire confiance à un système d’IA incapable de justifier la façon dont les résultats ont été générés et le considèrent comme un système de «boîte noire». Les utilisateurs veulent qu’un système d’IA puisse non seulement fournir des résultats de haute qualité, mais aussi qu’il soit transparent dans le processus de génération de résultats, appelé «IA explicable» ou «IA interprétable». La plupart des travaux actuels sur ce que sont les explications et les interprétations dans les systèmes d’IA sont basés sur les intuitions subjectives des chercheurs sanssupport théorique solide, ni consensus commun, ni définition mathématique, ce qui peut être la cause d’une mauvaise définition et d’une ambiguïté dans l’utilisation des deux termes: interpréter et expliquer. Dans cet article, nous cherchons à lever cette ambiguïté dans le contexte de l’IA à l’aide d’un solide support théorique issu de la gestion des connaissances. Nous discutons également des méthodes d’évaluation possibles pour l’interprétabilité et l’explicabilité dans les systèmes d’IA.Abstract (EN)
Recent years, the need and demand for explainable/interpretable artificial intelligence (AI) has been growing with the ubiquitous application of AI in our daily life. Human beings tend not to trust an AI system that cannot justify how the results have been generated, which is viewed as a "black box" system. People want that an AI system not only can providehigh-quality results but also be transparent in the result generating process, which is called "explainable AI" or "interpretable AI". Most of the state-of-art works about what are explanations and interpretations in AI systems are based on researchers’ subjective intuitions without solid theory support, neither common consensus nor mathematical definitions have been achieved, which may be the cause of ill definitions and ambiguity in the use of the two terms: interpret and explain. In this paper, we seek to disambiguate the use of interpret and explain in the context of AI with the help of solid theory support from knowledge management. We also discuss possible evaluation methods for interpretability and explainability in AI systems respectively.Subjects / Keywords
interpretability; explainability; artificial intelligence; interprétabilité; explicabilité; intelligence artificielleRelated items
Showing items related by title and author.
-
Zhong, Jinfeng; Negre, Elsa (2021) Communication / Conférence
-
Zhong, Jinfeng; Negre, Elsa (2021) Communication / Conférence
-
Zhong, Jinfeng; Negre, Elsa (2021) Communication / Conférence
-
Zhong, Jinfeng; Negre, Elsa (2022) Communication / Conférence
-
Zhong, Jinfeng; Negre, Elsa (2022) Communication / Conférence