Pressroom

Machine Learning : les biais des algorithmes sont-ils une fatalité ?

La loyauté ne saurait, selon Patrice Bertail, David Bounie, Stéphan Clémençon et Patrick Waelbroeck, être confondue avec l’idée de neutralité. Cette dernière suppose que les algorithmes soient capables de restituer une représentation fidèle de la réalité. Ce qui semble incompatible avec le fait qu’ils trient des informations selon certains principes.

Ces quatre chercheurs (le premier étant de l’université Paris-Nanterre ; les trois autres, de Télécom ParisTech) se sont intéressés à la question de l’équité. En l’occurrence, la capacité des algorithmes à ne pas faire de distinction entre les personnes en fonction d’attributs protégés par la loi (âge, sexe, origine ethnique…).

Leurs travaux  sur les algorithmes d’apprentissage automatique, ceux qui déterminent des règles de décision à partir de l’analyse de données, ont révélé une tendance à reproduire les valeurs implicites des humains*. Et donc à guider parfois vers des décisions biaisées par rapport à un comportement rationnel ou à la réalité.

À lire >> https://www.itespresso.fr/algorithmes-biais-fatalite-205125.html