Pressroom

Les algorithmes, entre intelligence et injustice artificielles (Nextinpact)

Les algorithmes et les intelligences artificielles peuvent être de formidables outils… à condition qu’ils soient bien conçus et entraînés. Ils sont néanmoins très fortement dépendants des données mises à leur disposition et peuvent donc enfermer les utilisateurs, perpétuer et amplifier les biais des humains.
[…] Début 2019 , les chercheurs Patrice Bertail (Université Paris Nanterre), David Bounie, Stephan Clémençon et Patrick Waelbroeck (Télécom Paris) résumaient ce problème en quatre mots : « Garbage in, garbage out », que l’on pourrait traduire par « foutaises en entrée, foutaises en sortie ».

Cela « fait référence au fait que même l’algorithme le plus sophistiqué qui soit produira des résultats inexacts et potentiellement biaisés si les données d’entrée sur lesquelles il s’entraîne sont inexactes ». Un exemple de foutaise (parmi tant d’autres) : en 2015, un algorithme de reconnaissance faciale de Google « a considéré qu’une personne de couleur noire présentait plus de similitudes avec l’objet “gorille”, qu’elle avait été entraînée à reconnaître, qu’avec l’objet “humain” ». […]

Image d’entête source I’m Tech