Télécom Paris Ideas
Les impacts sociaux du numérique et sur les travailleurs du clic

Les impacts sociaux du numérique et sur les travailleurs du clic
Les risques spécifiques associés au travail du clic

Antonio Casilli, professeur de sociologie à Télécom Paris, nov. 2023.

Le numérique peut-il être source de bien-être ? À l’occasion de sa contribution à la Road map européenne sur le travail digital et le bien-être, Antonio Casilli revient sur les risques spécifiques associés au travail du clic : exposition à des contenus problématiques et violents, répétitivité de l’étiquetage des données, rémunération indécente… Il déplore le fait que ces travailleurs, de plus en plus nombreux, restent invisibilisés et absents des textes européens régulant l’intelligence artificielle, à commencer par l’IA Act, même si d’autres textes les concernent : les directives sur le travail des plateformes et sur le devoir de vigilance…

Propos recueillis par Isabelle Mauriac

 

 

Podcast

Retrouvez cette interview en format audio dans le cadre du podcast Le ¼ d’heure du chercheur :

Entretien

Antonio, vous êtes connu pour vos travaux autour des travailleurs du clic qui font tourner les algorithmes d’intelligence artificielle, et vous réfléchissez aux usages du numérique, au travail et aux libertés publiques. Aujourd’hui, nous sommes un peu à contre-courant de tout ça, car nous allons parler de la roadmap européenne pour la recherche sur le numérique et le bien-être.

Pour situer le contexte, j’ai participé à cette roadmap parce qu’à un certain moment, j’ai été impliqué, avec David Chavalarias et d’autres chercheurs de l’Institut des systèmes complexes de Paris-Ile-de-France, dans une contribution sur le travail digital et le bien-être. J’ai tendance à ne pas utiliser le terme de « travail numérique » pour des raisons que je pourrai expliquer. Donc la question s’est posée en ces termes : « Il y a des personnes qui réalisent des métiers qui sont essentiels pour la production d’intelligence artificielle, de systèmes de machine learning, et de manière plus générale de solutions informatiques, avec un coût social et même psychologique ». Il faut bien préciser de qui on parle parce qu’on a tendance tout de suite à penser aux ingénieurs, aux développeurs ou aux data scientistes. Certes, c’est important. Et eux aussi payent à certains points de vue un coût en termes d’implication, de burnout, et aussi de perte de repère ou de mauvais alignement par rapport à la société. Mais ces ingénieurs, ces développeurs, ne sont pas la partie la plus importante en termes d’effectifs, en termes de force de travail mondiale. On parle de quelques dizaines de millions de personnes qui développent du code, par exemple au niveau mondial, si on se concentre sur les développeurs.

Par contre, on a, selon des estimations récentes à la Banque mondiale, des centaines de millions de personnes qui réalisent ce que j’appelle le « travail du clic ». Ce travail du clic consiste à entraîner des modèles de vérification du fonctionnement correct des solutions d’intelligence artificielle lancées sur le marché et parfois de supervision en temps réel de ces modèles même. Et donc cela a un coût d’un autre type.

Vous nous disiez que vous distinguiez travail numérique et travail digital, pouvez-vous nous dire en quoi ?

On a tendance à penser que « digital » est un anglicisme, en référence au terme anglais digit, qui signifie chiffre. Donc on pourrait dire que simplement, c’est la traduction de numérique parce que chiffre et numéro, c’est équivalent. En réalité, digit renvoie à l’étymologie latine digitus, donc finalement le travail du doigt. Cela n’est pas sans lien, parce que…

… ce travail du doigt ou des doigts, de nos doigts, nécessaire pour produire des données, à leur tour nécessaires pour produire l’intelligence artificielle, est le point central de ce qui se passe aujourd’hui dans la production de valeur autour de l’intelligence artificielle.

Dans vos travaux précédents, vous avez montré que le numérique n’était pas forcément synonyme de bien-être, pour en revenir à votre sujet d’étude. Donc pouvez-vous nous redire ce qu’il en est des travailleurs du clic ?

Avant de parler des travailleurs du clic, je voulais préciser que l’une des raisons pour lesquelles j’étais impliqué dans cette roadmap est qu’il y a toute une partie de mon travail qui remonte à une dizaine d’années, dans laquelle j’ai abordé la question de la santé mentale et du numérique. Avec un angle particulier, parce qu’avec mon équipe, nous nous étions d’abord concentrés sur la façon dont les personnes ayant des troubles alimentaires se servaient d’internet et d’autres technologies proches pour communiquer entre elles, pour se mettre en contact et parfois se mettre en contre-emploi par rapport aux professionnels de la santé. Ce qui évidemment entraînait toute une série de problèmes et d’enjeux particuliers. Puis, nous avions également travaillé sur la question du bien-être en termes de participation, en termes de création d’un sens de communauté. Donc il y avait des dimensions socio-psychologiques de mes travaux précédents qui rendaient ma présence dans cette initiative pas complètement absurde !

Après il est vrai que dès qu’on se concentre sur mes études plus récentes, et donc les travailleurs du clic, on se rend compte qu’on peut détecter des risques spécifiques qui sont associés à ce type d’activité. Alors quel type d’activité ? De quoi parle-t-on ? Parce que les travailleurs du clic peuvent paraître une catégorie un peu abstraite. Il s’agit de toute personne qui annote, filtre, enrichit ou structure des données pour la création d’énormes bases de données. Imaginons par exemple le fait d’avoir une masse énorme d’images non catégorisées, non étiquetées… Il faut que quelqu’un à un moment ou un autre, seul à la main ou avec des outils de segmentation, fasse le travail d’annoter ces images. Par exemple de marquer sur ces images s’il y a un chat ou un être humain. Et s’il y a un être humain de marquer son visage ou certains traits de son visage. Cela peut paraître ne pas avoir d’impact particulier sur la santé ou sur le bien-être des personnes.

Mais en réalité il s’agit d’un travail qui est extrêmement répétitif, je n’hésite pas à dire dans certains cas abrutissant, parce qu’il consiste à répéter la même petite tâche en perdant de vue la finalité ultime.

Après il y a des cas beaucoup plus extrêmes. Par exemple, des travailleurs du clic de catégorie particulière doivent travailler sur des données qui sont en soi des données problématiques, par exemple de la modération de contenus sur internet. Modérer des contenus violents ou vraiment extrêmes peut entraîner des conséquences en termes de stress traumatique. Avec mes collègues, notamment ici à Télécom Paris, nous interviewons des personnes qui font ce travail de modération qui a des impacts très forts sur leur bien-être, sur leur vécu.

Vous avez étudié ces populations de près. D’abord en termes de volume, savez-vous combien on peut dénombrer de travailleurs du clic ? Puis il y a aussi j’imagine, une division sociale du travail. Donc ils sont sans doute concentrés dans certains pays, certaines régions du monde. On peut imaginer que leur revenu et leur niveau de vie ne sont pas les même que le nôtre…

Oui parce qu’il s’agit d’un travail qui est atomisé, qui est fragmenté en petites tâches. Donc les personnes qui s’occupent de machine learning savent qu’il y a des plateformes spécialisées dans la production de micro-tâches et que les micro-tâcherons sont des personnes très peu payées. Après on a des personnes qui réalisent ce travail du clic partout dans le monde.

Effectivement, l’estimation du nombre de personnes devient assez complexe. Nous avons essayé avec nos collègues de mon groupe de recherche à Télécom Paris, le DIPLAB (Digital Platform Labor) au département des sciences économiques et sociales. Par exemple en 2019 nous avions estimé qu’en France jusqu’à 260 000 personnes travaillaient de manière au moins occasionnelle sur ces plateformes de micro tâches. À l’international, les chiffres commencent à monter en flèche. Nos collègues de l’université d’Oxford avaient estimé il y a quelques années qu’il y avait jusqu’à 165 millions de personnes dans le monde qui travaillaient sur des plateformes de travail en ligne de ce type. Y compris les travailleurs qui produisent des données pour le machine learning. Plus récemment, une estimation de la Banque mondiale, absolument impressionnante, indique quelque 430 millions de personnes… Évidemment, c’est la fourchette haute et c’est une estimation à prendre avec précaution. Toute estimation, du reste, est problématique dans ce domaine, parce qu’on a affaire à une population cachée, invisibilisée.

Ce sont des chiffres considérables, sont-il en en augmentation ? Vous nous disiez que ces travailleurs du clic intervenaient sur de l’étiquetage des données qui vont servir à entraîner les algorithmes, mais également aussi sur la modération de contenu. La régulation de l’intelligence artificielle est un grand sujet d’actualité et donc la modération plutôt un marché d’avenir ! Donc vous n’avez pas d’inquiétude ? Comment gérer ce problème d’invisibilisation et de travail du clic ?

C’est un métier d’avenir même si c’est un peu contre-intuitif parce qu’on s’imagine que de toute façon, dans la mesure où toutes ces personnes sont en train d’entraîner des algorithmes et des modèles qui s’améliorent au fur et à mesure, à terme on pourra se passer d’elles. Malheureusement, on voit que cette population est en augmentation. Même si on ne veut pas croire à l’estimation de la Banque mondiale qui, quand même signifierait que 12% de la force de travail mondiale sont impliqués d’une manière ou d’une autre dans ce type de travail sur plateforme, on a affaire à des plateformes qui deviennent de plus en plus importantes. Depuis le Covid en particulier il y a eu une véritable explosion des effectifs des travailleurs du clic, compréhensible parce que chacun cherchait des occasions de revenus en ligne. Mais nous avons aussi remarqué une tendance sur laquelle nous travaillons beaucoup avec mes collègues de DIPLAB :

la délocalisation de ces activités vers des pays à faibles revenus, donc dans les pays les plus pauvres du monde.

Nous réalisons ce qu’on appelle en sociologie des terrains d’enquête. Nous partons à certains endroits et nous passons du temps à observer, partageons notre temps et notre vie avec ces personnes… en Égypte, à Madagascar, au Chili, en Bolivie… Certains pays, comme Madagascar ou le Venezuela, sont particulièrement impliqués dans ce type d’activité et dans laquelle une part de plus en plus importante de la population et de la force de travail se consacre à ces activités, parce que selon leur standard c’est mieux payé qu’une activité locale.

Avez-vous interpellé les géants du numérique, les Gafam, sur ces sujets, que disent-ils là-dessus ?

Nous les impliquons systématiquement et de manières diverses et variées. Il est clair que nous ne sommes pas les bienvenus à chaque fois. Mais il est vrai qu’il y a un intérêt important et croissant, de la part non seulement des Gafam mais aussi d’entreprises plus petites, start-up ou PME, qui commencent à se rendre compte qu’il y a un problème. Souvent, même les start-up ne mesurent pas l’ampleur de cette population de personnes mises au travail pour quelques centimes, parfois pour constituer leurs bases de données. Cela est dû surtout au fait que la plupart du temps, Google ne recrute pas directement des personnes en les payant très faiblement, dans des pays très éloignés, mais fait souvent appel à des sous-traitants, de sous-traitants de sous-traitants…

Notre premier travail consiste donc à aider ces entreprises à voir ces travailleurs invisibilisés par le système même. Après c’est aussi un travail que nous faisons en triangulant l’action publique, donc la régulation, et les entreprises, en cherchant à contrer leur mauvaise volonté le cas échéant. Dans ce cas, c’est beaucoup plus difficile et cela consiste à réfléchir ensemble à des actions en justice pour convaincre les entreprises de respecter la loi ou dans certains cas, aider certains lanceurs d’alerte pour qu’ils puissent relater ce qu’ils voient en leur assurant toutes les protections nécessaires.

Vous parlez des pouvoirs publics, de régulation, beaucoup de textes, notamment européens, sont examinés en matière de régulation de l’intelligence artificielle et des plateformes, comme l’IA Act … Y a-t-il des choses prévues dans ces textes-là, cela bouge-t-il du côté des pouvoirs publics ?

Oui mais si je ne suis pas certain pour autant que cela bouge dans la bonne direction… L’IA Act est d’abord basé sur une approche par risque, il considère qu’il y a des risques associés à l’intelligence artificielle, classés en quatre catégories. Le plus haut niveau de risque est évidemment une intelligence artificielle qu’on ne devrait pas développer en raison de problèmes de sécurité ou des conséquences importantes, même éventuellement pour la santé des personnes qui seraient les usagers ou les sujets de cette intelligence artificielle. Pensez par exemple à une intelligence artificielle qui s’occuperait de systématiquement couper le budget des centres de recherche qui développent de nouveaux médicaments… là on aurait un problème.

Mais il y a aussi des intelligences artificielles et des modèles qu’on admet mais qui sont problématiques, et qu’il faut bien réguler. Alors la régulation devient très vite une question, comme souvent dans le cas des institutions européennes, assez complexe et on arrive effectivement à opérationnaliser cet IA Act, avec huit principes et plus de 50 standards qui devraient être respectés. Cela devient donc très vite très technique et j’ai peur que cette complexité fasse le jeu de ceux qui prônent la dérégulation, c’est-à-dire qui voudraient que les entreprises qui produisent une intelligence artificielle le fassent sans avoir toutes les balises et toutes les limites que la loi parfois cherche à imposer.

Pour l’instant, ce texte est bâclé et largement influencé par des lobbyistes importants de grandes entreprises européennes et internationales ;

je pense en particulier, parce que c’est dans l’actualité lors de l’enregistrement de cet entretien, à Open AI. Open AI et Sam Altman aux États-Unis se présentent comme les champions de la régulation à tout prix de leur propre création, mais lorsqu’ils vont en Europe, à Bruxelles, ils font par contre du lobbying pour chercher à limiter la régulation. C’est un problème important qui a des conséquences sur notre société et sur notre économie.

Pour en revenir aux travailleurs du clic, ce sujet est-il complètement absent de la régulation prévue par l’IA Act ?

Oui, il est complètement absent de la régulation de l’intelligence artificielle parce que les régulateurs ont encore aujourd’hui cette vision selon laquelle un modèle d’intelligence artificielle, ce sont avant tout des paramètres et s’il y a des données, elles tombent du ciel. Ils n’arrivent pas encore à situer le rôle des travailleurs du clic et des travailleurs de la donnée dans tout cela. Mais il  existe d’autres directives, d’autres lois au niveau international et au niveau national qui permettent à terme de faire respecter le droit du travail et les droits humains associés à ce type de travail.

Je pense à deux régulations en particulier. La première est la directive sur le travail des plateformes qui est, lors de cet enregistrement, encore en discussion, mais elle ne devrait pas tarder à être approuvée. Il s’agira de voir comment les États européens mettent en place des lois au niveau national pour faire respecter cette directive, qui, grosso modo, vise à faire des travailleurs de plateformes, présentés aujourd’hui comme des free lances, des travailleurs payés à la pièce, sans véritable contrat, comme des employés formellement reconnus. Ce qui est effectivement un pas dans une direction précise, en terme de protection sociale.

Après, d’autres lois et d’autres textes pointent plutôt la question de la responsabilité et du devoir de vigilance des grands entreprises qui produisent des systèmes d’intelligence artificielle. Des lois existent déjà au niveau national, notamment en France et en Allemagne, mais bientôt il y existera aussi une directive européenne sur le devoir de vigilance des entreprises. Cela implique que si je suis une entreprise (de taille est quand même importante, plus de 400 salariés ) et que je décide d’automatiser telle partie de ma production et que pour ce faire, je délègue à d’autres entreprises, y compris situées par exemple à Madagascar, au Kenya ou au Cameroun et qui font ce travail d’entraînement des données, je dois m’assurer que tout au long de la chaîne de production, les droits humains et les droits du travail de mes travailleurs soient respectés de la même manière que les personnes qui sont en France.

Vous parlez de la directive sur le travail des plateformes, on pense plus aux travailleurs Uber, aux entreprises de mobilité, qu’aux algorithmes d’IA, donc , n’y a-t-il pas un problème d’invisibilisation de ces travailleurs du clic ?

Il est vrai que la directive sur le travail des plateformes est initialement pensée pour des travailleurs plus visibles, parce qu’il suffit de sortir dans la rue pour voir des livreurs ou des chauffeurs de VTC. Et il est clair que c’est la première ligne, mais derrière cette première ligne, il y a un travail important, auquel nous sommes en train de contribuer, au sein du DIPLAB et de Télécom Paris, consistant à accompagner le législateur pour inclure dans cette directive le travail des plateformes à distance et des micro-taches. C’est un travail que nous poursuivons encore à l’heure actuelle, en février 2024 ; nous serons d’ailleurs à Bruxelles pour participer au Forum des Alternatives à l’ubérisation. Cela peut paraître assez éloigné de l’intelligence artificielle, mais en réalité, nous serons avec des travailleurs des micro-tâches qui vont porter leurs témoignages et vont, espérons-le, permettre au législateur de Bruxelles de voir les impacts en termes de bien-être et de vécu.

Nous avons plutôt abordé dans cet entretien le numérique et ses impacts sur le bien-être côté production numérique. Si l’on se place du côté des utilisateurs, on a aussi la construction et la gestion d’un capital social en ligne, et les problèmes que cela pose en termes de privacy. On a aussi le travail bénévole sur les réseaux sociaux. Votre travail porte-t-il aussi sur ces aspects-là ?

Autour de 2010, j’avais publié un livre en France qui s’appelait Les liaisons numériques (Seuil), puis Against the Hypothesis of the End of Privacy (Springer, 2014), contre l’hypothèse de la fin de la vie privée. C’étaient deux livres sur la question de la sociabilité en ligne, comment les gens se servent des réseaux sociaux pour chercher des occasions de solidarité, de collaboration, de coopération, mais aussi pour résoudre des problèmes très concrets. Je parlais des troubles alimentaires, mais il y a d’autres troubles de nature psychologique qui sont abordés systématiquement par des personnes en ligne, qui s’accompagnent et créent des occasions de découvrir ensemble des nouveautés ou même de s’organiser pour l’action politique. Toute une partie de notre travail des années 2010 portait sur comment les personnes qui initient des manifestations en ligne pour protester contre telle ou telle mesure des gouvernements se coordonnent sur Internet, et en quoi la libre circulation de ces messages peut parfois aussi conduire à des conflits violents. En effet, il y a une volonté, un besoin, une envie des usagers de se servir de ces technologies numériques pour l’autonomie, la libération.

Mais il y a aussi de l’autre côté des tentatives, qui hélas ont beaucoup de succès de la part des grandes plateformes, de capter cette bonne volonté, de « l’embrigader ». C’est le cas de nos interactions en ligne qui sont façonnées par les algorithmes qui nous suggèrent d’acheter ceci, de communiquer sur tel sujet, de regarder tel contenu, etc.

Cette forme de contrainte consiste à capter la bonne volonté. Cette contribution que vous avez définie comme bénévole mais que je n’hésite pas à définir comme non rémunérée, parce que c’est tout simplement une production de données qui n’est pas payée, mais qui finalement réalise les mêmes tâches que les personnes qui sont sur les plateformes de travail du clic.

Parce que, comme n’importe quel autre travailleur du clic, je suis en train de noter des images, de commenter des vidéos, de retranscrire des bouts de conversations, d’entraîner ChatGPT :…

… tout cela ça fait partie de la production d’intelligence artificielle et dans le cas de ChatGPT c’est tout simplement de ce qu’on appelle le reinforcement learning, donc de l’apprentissage par renforcement qui est une partie reconnue, qui n’a rien de cachée, de l’intelligence artificielle.

Avez-vous réfléchi à la rémunération possible de ce travail ?

J’y réfléchis, mais ma solution ne va pas plaire à tout le monde, parce que la solution la plus simple est celle qui, hélas, s’impose dans certains milieux politiques. Ici en France, c’est une solution portée par des milieux libéraux, qui disent tout simplement « il suffit de payer ces personnes, il suffit de payer tout le monde, y compris ceux qui ne savent pas qu’ils sont en train de produire des données pour l’intelligence artificielle. Et donc si je clique sur Facebook, je suis en train de produire de la donnée, donc à chaque fois que je clique, je reçois quelques centimes d’euros. » Malheureusement, cela va mettre tout le monde dans une situation de micro-tâcheron et j’ai passé mes dernières années à montrer que les conditions de vie et de travail de ces micro-tâcherons ne sont pas quelque chose d’enviable. Il ne faut pas être jaloux de quelqu’un qui, au Venezuela, gagne l’équivalent de 5 dollars par semaine ou parfois plutôt par mois en travaillant 8 heures par jour à cliquer sur des images.

Pour conclure cet entretien, avez-vous des pistes pour mieux associer numérique et bien-être ?

Le numérique est à la fois une source d’inquiétude et une source d’espoir pour un nombre important de personnes sur la planète, à la limite pour toute la planète, parce que tout le monde est impliqué dans les usages numériques, même les personnes qui ne se servent pas d’outils numériques, parce qu’il y a des traces qu’on laisse, même par notre présence sur Terre. Donc la question est de chercher à limiter les pouvoirs, sans contrepoids aujourd’hui, des multinationales ou de certains gouvernements, qui se servent de manière malicieuse du numérique et qui donc sont en train d’introduire des pratiques abusives, autoritaires dans le contexte d’une technologie qui, à la base, est une technologie de libération.

Je dirais qu’il nous faut travailler pour que le numérique revienne à son inspiration d’origine.

Télécom Paris Ideas