L'Intelligence Artificielle Explicable est un ensemble de techniques et d'approches qui permettent de comprendre comment les
systèmes d'IA prennent des décisions. Elle cherche à rendre transparent le "
raisonnement" de l'intelligence artificielle, en expliquant de façon compréhensible pour les humains pourquoi un
algorithme est arrivé à une conclusion spécifique.
De nombreux systèmes avancés d'IA basés sur des techniques comme les
réseaux de neurones et l'
apprentissage profond fonctionnent comme des "boîtes noires" où les données d'entrée et les résultats sont connus, mais il n'est pas évident de comprendre comment on est passé de l'un à l'autre. L'XAI cherche à ouvrir ces boîtes noires, permettant aux utilisateurs, développeurs et régulateurs de comprendre le processus de prise de décision.
Cette transparence est cruciale dans des applications sensibles comme les diagnostics médicaux, les systèmes de conduite autonome, l'évaluation de crédit ou les systèmes judiciaires, où les décisions affectent directement les personnes et où il est important de détecter et corriger les
biais ou les erreurs. Par exemple, un système XAI d'évaluation de prêts n'indiquerait pas seulement si une demande est approuvée ou rejetée, mais aussi quels facteurs spécifiques ont mené à cette décision.
Les techniques d'XAI incluent des visualisations, des explications en langage naturel et des méthodes qui identifient quelles informations ont été les plus décisives. Cette capacité d'explication génère non seulement la confiance dans la technologie, mais devient aussi de plus en plus une exigence légale dans de nombreuses juridictions qui réglementent l'utilisation de l'IA.