Newsroom

Une IA explicable : flexibilité et spécificité du contexte

Visuel article X-AI

L’initiative Operational AI Ethics de Télécom Paris vient de publier son premier rapport « Une IA explicable : flexibilité et spécificité du contexte – une approche interdisciplinaire ».

 

« Nous essayons de plus en plus d’intégrer les critères d’explicabilité dans le machine learning afin que la machine apprenne à raisonner de façon explicable pour l’Homme. »

– Florence d’Alché-Buc, enseignante-chercheuse en traitement et fouille de données massives à Télécom Paris et titulaire de la chaire Data Science and Artificial Intelligence for Digitalized Industry and Services

La Commission Européenne a dévoilé le 19 février 2020 son livre blanc « Intelligence artificielle : une approche européenne axée sur l’excellence et la confiance » présentant une intelligence artificielle de confiance centrée sur l’Homme. Afin que l’IA soit digne de confiance, il est nécessaire que les algorithmes émergents soient à la fois transparents et explicables. Or, leur explicabilité cache en réalité une multitude de scénarios. Afin de nourrir la réflexion autour de ce livre blanc, Télécom Paris vient de publier son rapport « Une IA explicable : flexibilité et spécificité du contexte une approche interdisciplinaire » qui identifie les différents scénarios d’explicabilité en prenant en considération les approches techniques et les éléments contextuels.

Pour réaliser ce rapport sur les problématiques d’explicabilité et de responsabilité des algorithmes, les chercheurs de Télécom Paris ont échangé avec les différentes parties prenantes (politiques, académiques, industrielles) dans une logique pluridisciplinaire (mathématiques, informatique, sciences sociales…), afin de synthétiser l’état de l’art dans ce domaine et d’établir des pistes de recommandations scientifiques pour améliorer l’explicabilité des algorithmes.

 

Ils identifient ainsi 4 critères contextuels qui vont guider le choix du type d’explicabilité :

  • Le destinataire de l’explicabilité, c’est-à-dire le public visé par l’explication. Son niveau sera différent selon qu’il soit utilisateur ou régulateur par exemple.
  • Le niveau d’importance et d’impact de l’algorithme. L’explicabilité d’un accident d’une voiture autonome n’a pas le même degré d’importance que celle d’un algorithme de publicités ou de recommandations de vidéos.
  • Le cadre légal et réglementaire, qui est différent selon les zones géographiques, comme en Europe avec le règlement général sur la protection des données (RGPD).
  • L’environnement opérationnel de l’explicabilité, comme par exemple son caractère obligatoire pour certaines applications critiques, le besoin de certification avant le déploiement ou la facilitation d’utilisation par les usagers.

 

La prise en compte des quatre facteurs contextuels de l’explicabilité est primordiale, car, pour les industriels, l’explicabilité est avant tout motivée par des exigences opérationnelles qui se distinguent largement des aspects légaux.
Winston Maxwell, professeur de droit au département SES de Télécom Paris

 

 

De plus, le niveau d’explicabilité nécessite une analyse coût-bénéfice prenant en compte le coût de stockage des bases de données, les interférences éventuelles avec le secret des affaires et le droit à la protection des données personnelles. C’est pourquoi une explication n’est pas toujours exigée notamment pour une implication qui a peu d’impact sur le public.

 

Ce nouveau rapport est le fruit d’un travail interdisciplinaire entre huit enseignants-chercheurs de Télécom Paris issus de six branches académiques de l’école : mathématiques appliqués, statistiques, informatique, économie, droit et sociologie. Il fait partie de la nouvelle initiative de Télécom Paris « Operational AI Ethics » qui a pour ambition d’aborder les questions éthiques de l’IA sous l’angle opérationnel et interdisciplinaire et fait de Télécom Paris un acteur de premier plan de ce domaine.

 

Notre travail de recherche a été réalisé dans une logique pluridisciplinaire regroupant les sciences de données, les mathématiques appliquées, l’informatique, l’économie, les statistiques, le droit et la sociologie, afin d’avoir des réflexions de fond sur la définition, les techniques et les besoin d’explicabilité, qui s’intègrent dans les notions plus larges de transparence et de responsabilité.
David Bounie, directeur du département SES de Télécom Paris

 

Suite à cette publication, l’initiative Operational AI Ethics a publié un second papier « Identifier le « bon » niveau d’explication dans une situation donnée » qui résume le premier et apporte des précisions supplémentaires.