Agenda

Lorsque l’IA se trompe : quelles sont les dérives de concepts et les hallucinations ?

Jeudi 11 avril 2024 de 10h45 à 11h30 (heure de Paris), en ligne.
L’intelligence artificielle et l’apprentissage machine (machine learning) sont entrés dans notre quotidien. En mai 2023, une enquête France Travail montrait que 35% des entreprises de 10 salariés ou plus utilisaient déjà l’IA ou étaient en train de la déployer.

Vos employeurs, vos collègues aimeraient intégrer l’IA dans les process de votre entreprise. Mais vous avez encore des doutes :

  • Dans quelle mesure les IA sont-elles fiables ?
  • Quelles sont ses failles et comment les contrer ?

La recherche académique s’est emparée du sujet. Elle pointe en particulier deux contraintes aux performances des algorithmes qui se manifestent lorsqu’il y a peu de données et/ou lorsque ces données évoluent dans le temps.

Dans le premier cas, des hallucinations se produisent lorsque l’IA apprend sur peu des données. Dans le second, la « dérive de concept » se produit lorsqu’elle doit travailler avec beaucoup plus de données que celles qui servent pour l’entraîner.

Vous voulez en savoir plus sur ces « erreurs » de l’IA et les bonnes pratiques pour en limiter ses effets ? Nous vous donnons rendez-vous jeudi 11 avril à un webinaire dédié au sujet, avec Helena Rodriguez, responsable de domaine IA à Télécom Paris et Véronique Sardent, responsable du pôle projet professionnel Mastères Spécialisés (MS), référente qualité MS.

Les hallucinations en intelligence artificielle

En intelligence artificielle, les hallucinations désignent des phénomènes où une IA génère des informations qui semblent réelles mais ne correspondent pas à la réalité.

Imaginons que vous conceviez un algorithme d’IA capable de reconnaître des types dans une catégorie, par exemple un modèle d’automobile. Pour alimenter votre modèle, vous lui donnez pour apprendre une base d’images d’automobiles, associées aux types connus.

Vous disposez de nombreuses images des modèles de voitures récents, dans des contextes variés. L’algorithme pourra donc les distinguer sans erreur. En revanche, vous avez très peu de photos de Simca 1100. Donc, l’algorithme risque de donner une réponse qui semble probable mais est, en réalité, fausse.

Cela peut être déconcertant, mais ces situations ne sont pas aussi dramatiques qu’il y paraît.

En effet, vous pouvez aussi utiliser les hallucinations à votre avantage. Il est possible de faire « halluciner » un algorithme d’IA générative pour créer des données supplémentaires de Simca 1100 dans la diversité de contextes disponibles pour les autres modèles automobiles.

La dérive de concept en IA

La dérive de concept (concept drift) fait référence au phénomène en apprentissage automatique où la relation entre les données d’entrée et la cible de sortie change avec le temps.

Elle peut être :

  • Progressive, par exemple, des changements dans le comportement des clients ;
  • Soudaine, en cas d’événements inattendus.

Par exemple, la ville de Melbourne (Australie) utilise un modèle d’IA pour anticiper les accidents de la circulation. Lors de la pandémie de Covid, les données statistiques de circulation ont montré un changement notable lié au confinement et les algorithmes n’étaient plus efficaces pour inférer les risques. Les modèles appris par l’algorithme avaient « dérivé ».

Pour faire face à la dérive de concept, les entreprises ont tendance à réentraîner les modèles avec des données récentes, mais cela n’est pas toujours suffisant. Des stratégies plus avancées consistent à assembler des modèles, à utiliser des sources de données supplémentaires, ou à faire évoluer le modèle d’apprentissage.

L’erreur n’est pas qu’humaine. Les intelligences artificielles peuvent aussi se tromper.

Vous voulez comprendre les hallucinations et la dérive de concept en IA ? Vous aimeriez connaître les parades pour éviter ces phénomènes ?