Tribune. Trois mois après le lancement de la carte de crédit Apple en août 2019 aux Etats-Unis, le cofondateur d’Apple Steve Wozniack accuse le service de discriminer les femmes en leur attribuant des lignes de crédits dix fois inférieures à celles des hommes ! La raison ? L’algorithme détermine automatiquement la ligne de crédit. Oui, d’accord, mais quelle est l’explication ? Steve Wozniack et sa femme attendent toujours la réponse…
De plus en plus d’exemples dans la justice, la santé, l’éducation et la finance, montrent que les outils d’intelligence artificielle (IA) ne peuvent être déployés sans contrôle dans des systèmes de sécurité ou d’accès à des ressources essentielles au risque de généraliser des biais, potentiellement discriminatoires, difficiles à interpréter et pour lesquels aucune explication n’est fournie aux utilisateurs.
La conclusion est de plus en plus claire : l’IA doit intégrer l’éthique dès la conception des algorithmes (« ethics by design »). La performance éthique de l’algorithme (absence de discrimination, respect des individus…) doit figurer parmi les critères de performance, au même titre que l’exactitude des prédictions.
Lois, morale et culture
Mais intégrer l’éthique dans les algorithmes soulève des défis titanesques, pour cinq raisons.
Premièrement, les normes éthiques et juridiques sont souvent floues, et se prêtent mal à une formulation mathématique.
Deuxièmement, l’éthique n’est pas universelle. Les lois et les valeurs morales sont associées à la culture : ce qui est jugé comme moralement acceptable en France ne l’est pas au Japon, par exemple. Ce point est crucial, car il implique que la codification de règles éthiques ou apprises automatiquement par les algorithmes devra être adaptée au système juridique et culturel d’un groupe de personnes, d’un secteur, d’un pays dans lequel il est déployé.
Troisièmement, l’éthique est politique. La création d’un système équitable et non discriminatoire nécessite des compromis et la mise en balance d’intérêts contradictoires. D’une part, il est impossible de construire un algorithme universel pour empêcher simultanément toutes les formes de discrimination (genre, origine ethnique, etc.).
D’autre part, il est impossible de garantir à la fois une équité individuelle – par exemple, des individus égaux doivent être traités également indépendamment de leur origine ethnique ou de leur genre – et une équité de groupe – des individus par essence différents, en matière de genre par exemple, doivent être traités de manière inégale pour rétablir une équité sociale. L’algorithme devra donc être guidé par des choix politiques.
Il vous reste 42.53% de cet article à lire. La suite est réservée aux abonnés.