Newsroom

Le CSA devient l'un des premiers régulateurs de l'algorithme en France

ARTICLES DU BLOG

À PROPOS DU BLOG
L’équipe de recherche de l’initiative Operational AI Ethics s’associe pour partager les dernières actualités de recherche sur la thématique de l’Intelligence Artificielle éthique.

CONTRIBUTEURS
Astrid Bertrand
Albert Bifet
David Bounie
Chloé Clavel
Stéphan Clémençon
Jean-Louis Dessalles
Claire Levallois-Barth
Winston Maxwell
Pavlo Mozharovskyi
Dilia Carolina Olivo
Fabian Suchanek
Xavier Vamparys

RETOUR AU BLOG

 

La loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République anticipe les dispositions du projet de règlement DSA en ce qui concerne le retrait de contenus haineux et autres contenus illégaux.

Cette loi impose notamment aux plateformes structurantes une obligation de procéder chaque année à une évaluation des risques systémiques liés à la diffusion de ces contenus, et de mettre en œuvre des mesures raisonnables, efficaces et proportionnées visant à détecter, identifier et traiter ces contenus, tout en veillant à prévenir les risques de retrait injustifié. Les mesures peuvent inclure des moyens automatisés et dans ce cas la plateforme doit décrire de manière claire et précise dans ses conditions générales d’utilisation les procédures et les moyens humains ou automatisés utilisés pour la modération des contenus.

Le Conseil supérieur de l’audiovisuel (CSA) veille au respect de ces dispositions et notamment au caractère approprié des moyens techniques mis en œuvre. Les plateformes doivent donner au CSA accès aux “principes de fonctionnement des outils automatisés auxquels ils ont recours pour répondre à ces obligations, aux paramètres utilisés par ces outils, aux méthodes et aux données utilisées pour l’évaluation et l’amélioration de leur performance ainsi qu’à toute autre information ou donnée lui permettant d’évaluer leur efficacité, dans le respect des dispositions relatives à la protection des données personnelles.”

Le CSA peut demander accès aux données des plateformes par l’intermédiaire d’interfaces de programmation dédiées dans l’objectif d’évaluer l’efficacité du dispositif. Il veille à l’équilibre entre l’efficacité des retraits et les risques de retrait injustifiés.

Lorsqu’une plateforme bloque ou rend inaccessible un contenu, la plateforme doit informer l’utilisateur à l’origine de la publication, en indiquant les raisons qui ont motivé cette décision, en précisant si la décision a été prise au moyen d’un outil automatisé, et en l’informant des voies de recours internes et judiciaires. Les plateformes doivent mettre en place des dispositifs de recours internes permettant aux utilisateurs de contester la décision. Le traitement des recours ne doit pas s’appuyer uniquement sur l’utilisation de moyens automatisés.

En résumé, la loi du 24 août 2021 légitime, comme le projet de règlement DSA, l’utilisation par les plateformes d’algorithmes pour la détection et le retrait de contenus illicites, et impose, comme le projet de règlement DSA, une intervention humaine seulement au stade de la contestation de la décision de retrait.

 

__________________________________________________

By Winston Maxwell, Télécom Paris, Institut Polytechnique de Paris

__________________________________________________

Photo : Fred Romero – licence Creative Commons