Tout savoir sur IA explicable

L’intelligence artificielle (IA) se développe dans de nombreux secteurs d’activité : banques, assurances, médias ou encore santé. D’abord impressionnés, les utilisateurs s’interrogent désormais sur la fiabilité de certains résultats générés par l’IA. Sans explication, ceux-ci créent de la méfiance. En particulier sur les décisions liées à des questions à fort enjeu : diagnostic médical, système de conduite autonome et transparence du recrutement. Ce qui n’est pas explicable fait peur. Et pose la question de la responsabilité.

L’intelligence artificielle s’inspire du cerveau et de ses circuits neuronaux complexes. Paradoxalement, les experts humains disparaissent au profit des modèles basés sur l’IA. C’est pourquoi l’intelligence artificielle explicable vise à remettre l’humain au centre des processus utilisés. Et ainsi restaurer la confiance en l’IA grâce à une meilleure compréhension des résultats générés. Un véritable défi aux enjeux stratégiques.

 

Qu’est-ce que l’IA explicable (XAI) ?

En Europe, c’est le déploiement du Règlement général sur la protection des données (RGPD) en 2018 qui légitime les modèles d’IA explicables. Cette réglementation a contribué à rendre la XAI incontournable.

Définition et principes clés de l’intelligence artificielle explicable

Les résultats générés par l’IA sont obtenus grâce aux algorithmes d’apprentissage automatique (machine learning) et aux données collectées. L’intelligence artificielle explicable , c’est l’ensemble des processus et des outils qui permettent la compréhension de ces résultats. Tout système fonctionnant avec une IA doit ainsi pouvoir fournir une explication que les utilisateurs peuvent comprendre.

La XAI doit ainsi permettre d’évaluer les critères retenus pour arriver à un résultat, les motifs pour prendre une décision, le niveau de confiance du process et le type d’erreurs possibles. Dans le cadre d’un diagnostic médical assisté par IA, ces informations sont cruciales avant la prise de décision finale du médecin.

Ce que doit contenir un modèle d’intelligence artificielle explicable

Un modèle d’intelligence artificielle explicable peut fournir des explications sur les résultats générés sous un format intelligible pour type d’utilisateurs. Une explication peut comprendre une visualisation du processus de prise de décision et/ou un texte riche en informations.

L’explicabilité d’une IA et des résultats fournis par ses algorithmes est liée à un contexte (diagnostic médical) et à un utilisateur donné (médecin). Elle se différencie ainsi de l’interprétabilité d’un modèle qui s’adresse en premier lieu aux utilisateurs experts des données (data scientists).

Le processus de l’explicabilité en machine learning

L’intelligence artificielle repose sur les méthodes d’apprentissage du machine learning (ML). Des données massives sont collectées. Le traitement de celles-ci est effectué par un algorithme dans un objectif donné. Le résultat généré entraîne une action de l’utilisateur qui nourrit en retour le système d’apprentissage.

Un modèle d’IA explicable vise à intégrer un système continu d’explications du traitement des données et une interface de communication. En cas de doute, l’utilisateur peut questionner le modèle, le confirmer ou l’infirmer. La transparence du processus permet une meilleure compréhension et l’amélioration des différents modèles d’IA.

Pourquoi l’IA explicable est-elle importante ?

L’IA explicable répond aux attentes de multiples acteurs : utilisateurs ordinaires (clients, patients, usagers), experts dans un domaine (corps médical, armée, finance), agences gouvernementales (RGPD), professionnels de l’IA et du machine learning (développeurs, data scientists) et décideurs d’entreprise.

L’XAI : restaurer la confiance dans l’IA et sa boîte noire

Le deep learning (apprentissage profond) et ses réseaux neuronaux représentent une prouesse technologique. Ils ont permis la mise au point des systèmes de conduite autonome ou de reconnaissance d’images à partir du traitement intelligent de millions de données. La complexité du processus de traitement et de résolution du deep learning effraie : à ce jour, son fonctionnement n’est pas toujours explicable.

Ce manque de confiance impacte le développement de l’utilisation de l’IA. C’est pourquoi la XAI vise à préciser quelles sont les données ou les décisions qui conduisent à un résultat. Cette transparence est la condition indispensable à la confiance des utilisateurs. Sans explications, les utilisateurs restent confrontés au mystère de la boîte noire de l’IA.

L’explicabilité des résultats : une meilleure compréhension pour optimiser les modèles d’IA

Seuls des résultats explicables permettent de corriger les erreurs éventuelles commises par une IA. Les développeurs notent par exemple un décalage fréquent entre les résultats obtenus en phase d’apprentissage et ceux générés après. De plus, les chercheurs admettent la possibilité de biais cognitifs lors de la création d’un modèle d’IA. Ces distorsions peuvent dès lors influencer les prises de décision générées par l’algorithme.

C’est une crainte réelle dans les secteurs du recrutement ou de la finance bancaire par exemple. L’explicabilité permet de corriger ces biais et d’optimiser l’utilisation des modèles d’IA.

RGPD et AI Act : transparence des données et explications

Depuis 2018, le RGPD impose la transparence sur l’utilisation des données des utilisateurs. L’article 22 du RGPD précise par ailleurs :

La personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire.

– Art.22, RGPD

Puis en mars 2024, le Parlement européen vote l’AI Act. Ce texte réglementaire veut encadrer l’usage de l’IA. L’objectif est de construire une IA de confiance. L’AI Act impose par exemple le devoir d’explication aux modèles d’IA utilisés par les organismes de crédit. Le client doit ainsi pouvoir recevoir les explications d’un refus de prêt généré par une IA. L’objectif est de lutter contre d’éventuelles discriminations dissimulées dans des algorithmes. La XAI permet alors de se conformer à ces réglementations.

Comment l’IA explicable est-elle mise en œuvre ?

L’IA explicable doit permettre de connaître les données utilisées et leur pertinence, mais aussi le système de prédiction des résultats et ses algorithmes.

Interprétabilité vs explicabilité d’un modèle IA

L’explicabilité d’un modèle IA vise à rendre intelligibles les décisions générées par l’IA à différents publics. Elle dépasse l’interprétabilité des résultats accessibles aux développeurs. Les méthodes de développement de la XAI répondent à 7 questions.

  • Qui peut avoir besoin d’explications ?
  • Pourquoi en a-t-il besoin ?
  • Quelles sont les différentes méthodes possibles pour expliquer les résultats ?
  • Qu’est-ce qui doit être expliqué ?
  • Quand : avant, pendant et après la création du modèle IA ?
  • Où le demandeur peut-il trouver les informations recherchées ?
  • En combien de temps peut-il obtenir une explication ?

 

Deux systèmes de modèles IA explicables

L’IA peut d’une part être explicable dès sa conception. C’est un modèle ante-hoc. L’arbre de décisions est le plus connu de ces systèmes. D’autre part, les résultats de l’IA peuvent seulement être expliqués après avoir été générés. Il s’agit alors de retracer le circuit des décisions. Ce sont les modèles post-hoc, représentés par les réseaux neuronaux du ML.

Techniques et outils de la XAI

Voici deux outils fréquemment utilisés pour mettre en œuvre la XAI :

  • LIME (local interpretable model-agnostic explanations), algorithme adapté au modèle d’apprentissage de type boîte noire ;
  • SHAP (shapley additive explanations), méthode d’interprétation basée sur la théorie des jeux pour comprendre les décisions.

 

Avantages de l’IA explicable

L’IA explicable garantit la transparence des processus et donc des décisions générées. Elle est indispensable pour renforcer la confiance dans les modèles IA. Les avantages de la XAI rassurent les clients de services utilisant l’IA (banque, santé, transport) et aident les professionnels de l’IA à optimiser leurs modèles. En entreprise, la XAI sécurise les décideurs sur la pertinence des techniques et des outils IA à développer et à utiliser.

Défis et limites de l’IA explicable

L’IA explicable représente un domaine en recherche permanente. Les créateurs de modèles IA de type boîte noire peinent parfois à expliquer le processus des décisions prises. Les systèmes complexes des réseaux neuronaux constituent dès lors le plus grand défi de ces experts.

L’IA explicable se heurte également à des difficultés humaines pour son déploiement. D’une part, les experts sont rares et chers. Et d’autre part, un projet d’XAI nécessite parfois la création peu évidente d’une équipe pluridisciplinaire (informatique, psychologie, sciences cognitives).

Quelles que soient les difficultés, le véritable enjeu de tout projet d’IA explicable, c’est de préserver le rôle des humains face aux algorithmes.

IA explicable en action : exemples concrets

De nombreux domaines utilisent des modèles IA. Plus le secteur d’activité est sensible, plus la XAI est nécessaire.

Systèmes de défense militaire et intelligence artificielle

L’Agence pour les projets de recherche avancée de défense américaine (DARPA) mène une recherche soutenue sur la XAI depuis 2016. L’objectif est d’obtenir une explicabilité optimale sur les systèmes d’armement utilisant l’IA.

XAI pour la gestion et la finance : un secteur en quête de transparence

88 % des organismes de crédit utilisent des modèles IA. La gestion d’actifs avec l’aide de conseillers robots se développe également. Enfin, le secteur de la finance utilise également des algorithmes pour la prédiction des marchés. Les exigences réglementaires et le besoin de transparence des clients obligent ce secteur à développer la XAI.

L’agriculture et la XAI : comprendre le processus de prise de décision pour agir

Les modèles d’IA explicables sont indispensables pour les agriculteurs. Ces derniers ont en effet besoin de comprendre le fonctionnement de l’IA et ses décisions pour optimiser leurs techniques de culture. La transparence et la confiance sont ici indispensables pour que l’IA soit acceptée par une profession séculaire.

La XAI répond ainsi à des enjeux humains, commerciaux et réglementaires. Son développement conditionne un usage transparent, acceptable et éthique de l’IA.