Télécom Paris Ideas
Identité numérique : qui sommes-nous en ligne ?

Identité numérique : qui sommes-nous en ligne ?

Valérie Fernandez, enseignante-chercheuse à Télécom Paris, docteure en Théorie des Organisations, Chaire de recherche Responsibility for Digital Identity (Identité Numérique Responsable), avril 2026

Valérie Fernandez

Valérie Fernandez nous accorde un entretien sur la question de nos identités numériques. Qu’elles soient publiques ou privées, celles-ci se forment et se transforment à grande vitesse. Ce mouvement rapide soulève une myriade de questions, de responsabilité sociale et d’éthique notamment, qui nous concernent tous, que nos identités numériques soient actives ou passives.

C’est pour traiter ces questions, en commençant par celle de leur acceptabilité par le citoyen, que la chaire Identité numérique responsable s’est dotée d’un think tank qui rassemble des représentants des instances de régulation et de grandes entreprises.

Propos recueillis par Isabelle Mauriac

1. Une transformation sociotechnique de l’identité numérique

À mesure que nos vies se numérisent, une question s’impose : qui sommes-nous vraiment dans l’espace numérique ? Derrière nos écrans, notre identité en ligne, constituée de « fragments d’identité », ne cesse de se transformer, au rythme des technologies qui les façonnent. À ses débuts, Internet était un terrain de jeu de la construction du « moi numérique ». Dans les années 1990, chacun pouvait expérimenter, se réinventer derrière un pseudonyme ou un avatar. L’identité numérique relevait alors d’un bricolage libre, presque ludique. Mais avec l’essor des réseaux sociaux dans les années 2000, l’identité numérique devient un miroir : on s’y expose, on s’y compare, on y construit une image de soi mesurée à l’aune des « likes » et de la visibilité. Puis vient l’ère algorithmique. Désormais, notre identité ne se limite plus à ce que nous déclarons : elle est aussi calculée, déduite, anticipée. Nos clics, nos déplacements, nos préférences alimentent des systèmes qui dessinent un profil invisible, exploité à des fins économiques, informationnelles et politique.

2. Une dualité entre identités « gafamesques » et régaliennes

Dans ce paysage, deux forces structurent nos identités numériques. D’un côté, les grandes plateformes — Google, Apple, Meta, Amazon — portées par une logique économique, qui organisent nos usages et captent nos données. De l’autre, les États, qui cherchent à garantir des identités fiables et sécurisées avec des dispositifs, comme en France la carte d’identité biométrique et l’application France Identité et prochainement le Portefeuille européen d’identité numérique (European Digital Identity Wallet, souvent abrégé e-Wallet).

3. Une fragmentation des identités et des régimes de confiance

Les individus naviguent entre plusieurs identités (administré, consommateur, utilisateur de plateforme et de fait acteur social actif et passif), ce qui fragmente la figure du citoyen et crée des tensions entre efficacité privée et légitimité publique. La coexistence de ses fragments d’identité soulève également des interrogations : qui contrôle nos données ? À quelles fins ? Et avec quel degré de transparence ? L’acceptabilité des dispositifs repose souvent sur leur utilité concrète mais aussi une méconnaissance des technologies et de leurs implications. Cette situation traduit moins un consensus qu’un déficit de compréhension et de visibilité, renforcé par la complexité technique et institutionnelle.

4. Le rôle du design et de l’usage dans l’acceptation : la « fatigue du consentement »

Les technologies s’imposent progressivement : via des usages « routinisés », par des mécanismes de design persuasif (nudges) et par extension au secteur public de dispositifs d’identité initialement développés dans la sphère privée. Ces dynamiques conduisent à une acceptation par défaut, souvent peu consciente. Nous acceptons, parfois sans vraiment comprendre — par habitude, par facilité, ou faute d’alternative. La complexité des systèmes numériques transforme le consentement : il ne repose plus sur un choix simple mais sur des compétences difficiles à mobiliser (interopérabilité, régulations multiples). Les individus acceptent sans réellement choisir, ce qui fragilise la qualité démocratique du consentement.

5. Vers une redéfinition de l’éthique et de l’acceptabilité

L’enjeu des travaux menés par la Chaire « Identité Numérique Responsable » est d’éclairer ces transformations, d’analyser leurs effets sociaux et démocratiques. Car derrière la promesse d’une identité numérique fluide se joue une question plus profonde : celle de la confiance. Aujourd’hui, nos identités sont fragmentées. Les individus sont simultanément constitués comme citoyens face à l’État, usagers des services publics, consommateurs sur des plateformes et objets de calcul pour les algorithmes. Cette superposition brouille les repères et complexifie notre capacité à garder le contrôle.
Dès lors, le véritable défi n’est pas seulement technologique, il est aussi politique. Il consiste à créer les conditions d’une compréhension collective de ces dispositifs, afin que chacun puisse non seulement les utiliser, mais aussi les questionner, les contester — et, au fond, reprendre prise sur ce qui nous définit en ligne.
Face à ces transformations, une évolution est nécessaire : passer d’une logique de contrôle et d’adhésion à une logique de réflexivité collective et de gouvernance démocratique. L’enjeu n’est plus de savoir si les citoyens acceptent une technologie, mais s’ils ont les moyens de la comprendre, la contester et l’orienter. Cette approche s’inscrit dans une éthique de la responsabilité, attentive aux effets à long terme des technologies. Elle questionne leur réception sociale non seulement dans leur encadrement étatique, mais aussi à travers l’influence déterminante des grandes plateformes numériques qui orientent les usages, les formes d’acceptabilité et les marchés.

6. Think tank : co-construire les savoirs sur l’acceptabilité de l’identité numérique

Le think tank de la chaire constitue un espace important de dialogue et de co-construction de savoirs. Il réunit chercheurs de différentes disciplines, industriels (Thales et Bouygues Telecom, mécènes de la chaire) ainsi que des représentants d’organismes de régulation nationaux et européens (ANSSI, ANSES, CNIL, Commission Européenne). Cette année, le think tank s’intéresse à la manière dont les dispositifs d’identité numérique sont acceptés par le public. L’objectif est de comprendre les tensions qui accompagnent leur diffusion : entre technologie et usages réels, entre promesse de simplicité et peur de la surveillance, entre adoption et méfiance.

Entretien complet

Identité numérique, quésaco ?

Nous allons creuser avec vous cette notion d’identité numérique, et pour commencer, nous pencher sur ses origines et ses différentes dimensions. Et d’abord en donner une définition : qu’est-ce que l’identité numérique ? Quelles sont ses différentes dimensions et ses applications ?
L’identité numérique est l’ensemble des informations, traces, attributs et modes d’authentification qui permettent de nous représenter, de nous reconnaître ou de nous identifier dans l’espace numérique.

Le concept d’identité numérique (IN) et ses évolutions sont indissociables des transformations sociotechniques du numérique. Par « sociotechnique », on entend l’évolution et la sophistication conjointe des technologies numériques et des usages (sociaux) de ces technologies.

Depuis l’émergence d’Internet, la notion « d’identité numérique » tout comme la réalité de « nos identités numériques » ont profondément évolué. Remontons ensemble dans le temps, en balayant rapidement quelques jalons.

Les années 1990-2000 : on découvre et on vit un Internet naissant, perçu alors comme un espace de liberté marqué par l’anonymat et où les individus expérimentent des identités multiples via des avatars, des pseudonymes… L’identité numérique est alors une extension symbolique de soi : le web est un espace de bricolage identitaire.

Dans les années 2003-2010, avec Facebook, LinkedIn et les premiers réseaux sociaux de masse, le profil d’un individu sur les réseaux devient un miroir social, d’ailleurs souvent embellissant, participant à créer une « société d’exposition ». Les individus se mettent en scène, et pour nombre calculent à travers les « likes », l’effet produit : on assiste à la naissance du “soi performatif”. La notion de capital social numérique apparaît alors, c’est-à-dire l’idée que la réputation, l’influence et la crédibilité acquises en ligne constituent une forme de capital social numérique monétisable. Cela conduira notamment à l’apparition du phénomène des influenceurs sur les réseaux sociaux.

Durant la décennie suivante 2010-2020, la diffusion massive du smartphone et des plateformes centrées sur les flux de contenus (Instagram, Snapchat, TikTok…) va nous faire entrer dans l’ère algorithmique. L’identité numérique n’est plus seulement déclarative (ce que je dis de moi) mais comportementale (ce que je fais, ce que je regarde, ce que je consomme). Les algorithmes construisent un « moi calculé », qui sert à la personnalisation des contenus qui défilent sur les fils de nos réseaux sociaux, à la publicité ciblée, tout en orientant progressivement nos perceptions et nos façons de penser. Avec les algorithmes, l’identité devient une donnée, profilée et exploitée économiquement.

Dans les années 2020–2025, avec la massification d’Internet et la sophistication des technologies numériques, les enjeux qui dominent deviennent principalement d’ordre politique et éthique. Les réseaux sociaux sont entrés dans une phase de politisation de l’identité numérique. Les flux d’informations qui nous parviennent sont triés et orientés, façonnant une identité parfois assignée plutôt que choisie. Sur cette question de l’identité numérique, se développe une conscience critique nourrissant des débats sur les enjeux de la vie privée, de la désinformation, de l’utilité de la modération des plateformes.

Ce contexte de politisation des réseaux sociaux soulève d’importants enjeux de régulation par des autorités publiques. Il se traduit notamment par l’adoption en 2016 du RGPD (Règlement Général de Protection des Données personnelles) et plus récemment, en août 2024, de l’IA Act, règlement pionnier pour la régulation des systèmes d’intelligence artificielle.

À ces formes d’identité numérique, fondées sur des modalités de représentation de soi (déclarée, calculée ou assignée), se sont progressivement articulées des technologies d’authentification, notamment biométriques – empreinte digitale, reconnaissance faciale – aujourd’hui largement mobilisées pour l’accès et le déverrouillage de nos smartphones. Le corps même est transformé à l’ère des algorithmes. Ces dispositifs véhiculent des formes d’identité que j’aime à qualifier de « gafamesque », dans la mesure où elles sont largement structurées par les grandes plateformes numériques, les GAFAM – Google, Apple, Facebook (aujourd’hui Meta), Amazon, Microsoft. Elles portent des identités sociales et corporelles dans des zones où la régulation étatique reste limitée, voire en décalage.

Parallèlement, l’État investit le champ de l’identité numérique en déployant ses propres infrastructures de certification : carte nationale d’identité biométrique, applications telles que France Identité (prolongement numérique de la carte d’identité ; l’application permet de stocker sur son téléphone certaines informations issues de la carte d’identité et de s’en servir pour s’authentifier ou justifier son identité en ligne ou en face-à-face), et plus récemment projet de Portefeuille numérique européen (permettant par exemple de s’identifier pour des services publics en ligne dans toute l’Union Européenne). Ces dispositifs visent à garantir l’authenticité de l’identité en ligne et à sécuriser l’accès aux services publics. Face aux risques réels d’usurpation d’identité – susceptibles d’entraîner des dommages financiers et personnels significatifs – ces dispositifs d’identité numérique s’imposent désormais comme des composantes essentielles de la confiance numérique. Ils contribuent ainsi à la sécurisation des échanges et à la réponse institutionnelle aux menaces croissantes en matière de cybersécurité.

Big Tech, Big Brothers ?

Revenons aux Big Tech : en structurant l’environnement numérique (flux, architecture), façonnent-elles aussi, d’une certaine manière, nos identités numériques ?

Oui, dans une certaine mesure. Les grandes plateformes ne se contentent plus d’héberger des contenus ou des interactions :

elles organisent aussi une partie des conditions d’accès aux services, aux échanges et à l’identification dans l’espace numérique. C’est en cela qu’elles jouent aujourd’hui un rôle structurant dans la formation de nos identités numériques.

Prenons le cas de PayPal, qui permet aux individus de payer, de transférer de l’argent et, dans une certaine mesure, de s’identifier dans les environnements numériques marchands. Par leur centralité dans les transactions en ligne et leur capacité à vérifier l’identité de millions d’utilisateurs, ce type de plateforme acquiert une fonction d’authentification et de validation qui rappelle, sous certains aspects, des prérogatives traditionnellement associées aux banques ou à l’État. On pourrait ainsi parler d’une forme de « quasi-régalien » — non pas au sens juridique strict, mais dans la mesure où ces acteurs exercent un rôle structurant dans l’accès aux échanges économiques numériques.

Plus largement, certaines technologies portées par les grandes plateformes montrent jusqu’où peut aller cette reconfiguration. Meta prévoit d’ajouter une brique technologique de reconnaissance faciale aux lunettes « intelligentes », permettant de télécharger des photos de visage et de retrouver sur Internet tous les liens URL associés et de capter ainsi une série d’informations personnelles. Le couplage entre lunettes, IA et bases de données peut rendre possible une identification intrusive dans l’espace public et c’est un signal d’alerte sur l’évolution de ces environnements techniques.

Une chaire pour y voir plus clair

On a l’impression d’une complexité croissante de nos différents niveaux d’identités, qui s’enchevêtrent, se superposent… La Chaire de recherche Identité Numérique Responsable, dont vous êtes titulaire et que vous pilotez depuis 2019, cherche, j’imagine, à démêler cette complexité ?

Face à la complexité de « notre » ou plutôt de « nos » identités numériques, ou encore de ces « fragments d’identité numérique », et aux enjeux qu’ils soulèvent, la chaire mobilise différentes disciplines, à l’intersection des sciences sociales, du droit, de la philosophie et des sciences technologiques.

Ses recherches interrogent les usages, les représentations et les effets sociaux des technologies émergentes qui façonnent nos identités numériques. Elles explorent les liens entre innovation technologique, enjeux politiques et dynamiques démocratiques.

L’équipe est constituée de chercheurs permanents (Laura Draetta, co-responsable de la chaire, et Kalli Giannelos qui co-dirige le think tank à mes côtés) et associés (Thomas Houy, Marc Relieu) ; de doctorants (Yanis Fadili ; Francesco Ortu) et chercheurs étrangers invités.

Les problématiques de recherche adressées par la chaire ont évolué au fil du temps et s’organisent aujourd’hui autour de trois axes principaux, associant chercheurs et doctorants. Le premier axe, « Identité numérique et pratiques sociales ordinaires », s’appuie sur des enquêtes de type ethnographique pour observer les usages numériques du quotidien. Il vise à comprendre les modes d’appropriation, les ajustements, les détournements, voire les formes de résistance qui accompagnent le déploiement de certains dispositifs d’identité numérique. Un deuxième axe, « Identité numérique et environnement », explore de manière prospective les relations possibles entre identité numérique et protection de l’environnement. Ces travaux s’inscrivent dans le débat plus large sur les liens entre numérique et transition écologique. Enfin, l’axe « Identité numérique et débats publics » analyse les controverses qui émergent dans l’espace public autour de l’identité numérique, de ses dispositifs et de leurs usages. Il s’intéresse notamment aux débats suscités par certaines technologies, parmi lesquelles les dispositifs de reconnaissance faciale, sur lesquels la chaire a été amenée à intervenir dans le débat public, y compris à l’Assemblée Nationale.

Sans doute parce qu’il est important de faire dialoguer les différentes et nombreuses parties prenantes sur le sujet, vous avez créé un think tank qui rassemble des représentants de différentes instances de régulation, ainsi que des entreprises ?

Le think tank de la chaire constitue un espace important de dialogue et de co-construction des savoirs. Il réunit des chercheurs de différentes disciplines, mais aussi des représentants du monde industriel (Thales et Bouygues Telecom, mécènes de la chaire), ainsi que des représentants d’organismes de régulation nationaux et européens, dont l’ANSSI, sur les enjeux de cybersécurité, la CNIL, sur la protection de nos données, et la Commission européenne, avecd l’un de ses représentants impliqués dans les questions éthiques liées au numérique.

En 2026, le think tank s’intéresse à la manière dont les dispositifs d’identité numérique sont acceptés par le public. L’objectif est de comprendre les tensions qui accompagnent leur diffusion : entre technologie et usages réels, entre promesse de simplicité et crainte de la surveillance, entre adoption et méfiance.

L’essor des dispositifs d’identité numérique dans leurs déclinaisons privées (Apple ID, Google Identity…) et publiques (France Identité, ou plus largement le portefeuille européen d’identité numérique dans le cadre eIDAS) participent à la production même de l’individu légitime dans l’espace numérique, et ce faisant, dans l’espace social. L’identité numérique n’est pas un simple outil administratif. Or, l’adhésion à ces dispositifs n’est pas forcément consciente : elle peut refléter une forme de dépendance contrainte plutôt qu’une véritable confiance dans le prestataire. Il peut y avoir aussi des réticences, sans pour autant donner lieu à de véritables controverses publiques. Cette discrétion ne traduit pas un consensus, mais plutôt un déficit de visibilité et d’information. La technicité du sujet, la complexité institutionnelle des dispositifs et la faible transparence de leur gouvernance limitent la capacité des citoyens à formuler une critique informée.

Nous posons l’hypothèse que le déploiement des dispositifs d’identité numérique transforme les régimes contemporains de la confiance et de la légitimité.

Il fait émerger un régime dans lequel la confiance reposerait sur un juste équilibre entre l’invisibilité de l’infrastructure — gage de simplicité d’usage — et la visibilité des garanties, telles que la transparence et l’ »auditabilité ». La sécurité ne se réduit pas au chiffrement mais englobe la « gouvernementabilité » de la donnée et la pédagogie sur les droits des usagers.
Nous explorons ainsi comment ces identités numériques pourraient déplacer le centre de gravité de la confiance vers moins de consentement individuel explicite et davantage vers une construction collective portée par les institutions.

Persuasion par facilité d’usage

Vous parlez de dynamiques d’acceptabilité sociale des dispositifs d’identité numérique, du fait notamment de design qui facilitent l’expérience utilisateur au point de perdre toute conscience des enjeux en termes notamment des traces que nous laissons sur le web et aussi parce qu’il existe une porosité entre usages publics et privés ?

Le concept de « persuasive design » (technologie persuasive), théorisé par Brian Jeffrey Fogg, chercheur en psychologie comportementale à Stanford, désigne la conception d’interfaces numériques visant à influencer le comportement des utilisateurs, par exemple en les incitant à revenir sur une application, à cliquer, à prolonger leur temps d’usage ou à effectuer une action spécifique.

L’utilisateur est ainsi souvent enrôlé, de manière peu consciente, par des dispositifs de design persuasif (on parle aussi de « nudges »), qui orientent ses comportements à la marge, sans qu’il en ait pleinement conscience, ce qui peut limiter sa capacité critique.

Par ailleurs, les technologies numériques sont souvent acceptées par défaut, à travers l’usage d’applications mobiles, de plateformes ou de services en ligne qui n’ont pas toujours d’alternative ou d’équivalent réellement accessibles. Les technologies numériques évoluent par petites touches successives, et « routinisent » leurs usages.

Certaines technologies, comme la reconnaissance faciale ou les caméras de surveillance domestiques, créent des effets de porosité entre les usages dans les domaines privés et publics. Elles circulent dans un espace mondialisé où la diversité des régulations et des formes d’acceptabilité sociale produit des déséquilibres concurrentiels et reconfigure les enjeux de souveraineté et de protection des individus.

Porosité

Nos dispositifs publics (France Identité au premier chef) sont souvent inspirés de dispositifs privés… Et certains de nos usages privés (les caméras de surveillance par exemple) pourraient participer à l’acceptabilité de dispositifs publics et à une forme de passivité de notre part ? Les formats sont déjà connus, donc nous semblent presque naturels… Est-ce à redouter ?

L’enjeu de la chaire n’est pas de verser dans le registre de la dystopie, c’est-à-dire de décrire le futur — notamment technologique — comme un scénario inquiétant ou cauchemardesque.

La chaire s’inscrit dans une « éthique de la responsabilité », héritée de Max Weber et approfondie par Hans Jonas. Elle dépasse une « éthique de conviction », guidée par les principes, pour mettre l’accent…

sur la prise en compte des conséquences concrètes et à long terme des technologies, notamment pour les générations futures, afin de préserver des conditions de vie durables.

Pouvez-vous nous parler de l’exemple de France Identité qui est un dispositif que nous connaissons tous, qui permet de prouver son identité et d’accéder à de nombreux services (impôts, permis de conduire, etc.) ? Est-elle bien intégrée et acceptée par les citoyens que nous sommes

France Identité est un dispositif public porté par France Titres qui développe une application visant à associer la nouvelle carte nationale d’identité électronique à des fonctionnalités numériques. L’enjeu est de permettre la création d’une identité numérique certifiée, l’accès aux services publics via FranceConnect et FranceConnect+, l’intégration de titres complémentaires (permis de conduire, carte grise, carte d’étudiant, etc.).

Les usages et les retours d’expérience montrent une demande forte pour de nouveaux titres dématérialisés (permis de conduire, carte grise, carte étudiant). L’acceptabilité est facilitée par l’utilité concrète du service et la réduction des contraintes administratives. Toutefois, plusieurs réticences peuvent subsister : méfiance vis-à-vis de la lecture de puce ou des méthodes biométriques, inquiétudes sur la fuite de données et la cybersécurité, manque de lisibilité du dispositif : les citoyens pourraient ne pas percevoir la finalité protectrice de France Identité et redouter une « centralisation invisible » de leurs données. Cette incompréhension n’engendre pas d’opposition structurée, mais une méfiance latente.

La question centrale devient alors : comment renforcer la pédagogie et l’information pour garantir une appropriation consciente et éclairée ?

Et il existe d’autres dispositifs sur lesquels le citoyen est moins bien informé, qui se développent même parfois à son insu ; je pense à la surveillance algorithmique pendant les derniers Jeux Olympiques qui avait était controversée… D’ailleurs, quelles sont les conclusions de cette expérimentation ?

La vidéosurveillance algorithmique (VSA) a été autorisée à titre expérimental par la loi du 19 mai 2023, dans le cadre des Jeux Olympiques et Paralympiques de Paris 2024. La VSA autorisée à titre expérimental dans ce contexte portait sur la détection en temps réel d’événements prédéterminés susceptibles de présenter un risque – bagages abandonnés, mouvements de foule, intrusions, etc. (la loi exclut la biométrie et la reconnaissance faciale).

L’adoption de cette loi avait pourtant suscité une opposition organisée : la Quadrature du Net, Amnesty International et une coalition d’une quarantaine d’organisations de la société civile avaient publiquement dénoncé le risque d’une surveillance de masse, tandis que des parlementaires de gauche ont saisi le Conseil constitutionnel.

Le bilan de l’expérimentation reste contrasté. Le rapport du comité d’évaluation remis en janvier 2025, puis le rapport du Sénat publié en février 2025, montrent notamment qu’une partie importante du public a mal identifié la nature exacte des technologies déployées. Le Sénat insiste en particulier sur le caractère trop discret, peu lisible et insuffisamment pédagogique de l’information fournie au public,

ce qui renforce l’enjeu de rendre ces dispositifs plus lisibles et compréhensibles pour les citoyens.

Identités fragmentées

Il existe aujourd’hui différentes couches d’identités régaliennes selon les usages, zones géographiques… c’est ce que vous appelez l’identité distribuée/fragmentée ? Est-ce lisible par le citoyen ? On s’est construit sur un contrat social d’une carte d’identité ! A-t-on besoin aujourd’hui (alors que le citoyen n’a pas forcément une bonne connaissance de ces dispositifs qui évoluent très vite) de nouveaux contrats sociaux autour de l’identité numérique ?

Nous l’avons déjà souligné : la coexistence des identités régaliennes (État, sécurité, santé, fiscalité) et des identités privées (GAFAM, avec nos comptes Google ou Apple ID, plateformes sociales avec nos profils Facebook ou LinkedIn, systèmes d’authentification permettant de se connecter avec Google, Facebook ou Apple, ou encore IA conversationnelles avec notre compte et historique sur des outils comme ChatGPT) reconfigure profondément la question de la confiance et de la légitimité.

Cette fragmentation ne change pas seulement le degré d’acceptabilité, mais la nature même du rapport à la technologie, selon qu’elle est contrôlée par des institutions publiques ou des entreprises privées, avec des implications en termes de contrôle des données, de dépendance technologique et de souveraineté numérique.

L’acceptabilité d’un dispositif varie selon le régime de confiance auquel il appartient. Le registre régalien, fondé sur la légitimité démocratique, suscite néanmoins des craintes liées à la surveillance et à l’usage des données. Le registre privé, quant à lui, séduit par son efficacité et sa simplicité, mais demeure structuré par des logiques commerciales opaques et peu régulées.

Les identités numériques proposées par les GAFAM contribuent à brouiller la frontière entre services privés d’authentification et prérogatives traditionnellement régaliennes. Cette hybridation tend d’ailleurs à se renforcer avec le futur portefeuille d’identité numérique européen (EUDI Wallet), pour lequel plusieurs États membres — tels que l’Allemagne, l’Estonie ou la Finlande — envisagent des dispositifs opérés en partenariat avec des acteurs bancaires ou technologiques privés. Dans ce contexte, le recours à un identifiant privé pour accéder aux services publics ne vient-il pas interroger, voire fragiliser, l’attachement au principe de souveraineté ?

La coexistence de ces régimes éclate la figure du citoyen : administré, consommateur et utilisateur de plateformes à la fois. L’acceptabilité repose sur la capacité à naviguer entre ces sphères sans perte de contrôle.

Vous parlez de « fatigue du consentement ». Appelle-t-elle une transformation du consentement et du contrôle et une reconfiguration éthique ?

La fragmentation des écosystèmes numériques reconfigure en profondeur les modalités de consentement et de contrôle. L’acceptation ne se réduit plus à une décision binaire (oui/non), mais engage des compétences cognitives élevées : compréhension des architectures de données, appréhension des logiques d’interopérabilité — notamment la fédération d’identités via des identifiants privés — et capacité d’intervention dans des cadres normatifs pluriels (du RGPD aux conditions d’usage des GAFAM). Cette complexité alimente une « fatigue du consentement », où l’adhésion relève moins d’un arbitrage réfléchi que d’un accommodement par défaut car, pour l’usager, refuser devient impraticable. Ce phénomène est susceptible d’altérer la portée démocratique du consentement numérique.

L’acceptabilité sociale des technologies doit être repensée. Elle ne consiste plus à obtenir l’adhésion du public, mais à créer les conditions d’une réflexivité collective sur les modalités de déploiement et de gouvernance. La question n’est plus seulement « Les citoyens acceptent-ils telle technologie ? », mais plutôt

« Quels cadres démocratiques leur permettent de comprendre, contester et orienter ces technologies selon leurs rôles (citoyen, consommateur, administré) ? ».

Cette approche rejoint les travaux sur la légitimité procédurale de la technologie et sur la responsabilité partagée dans la gouvernance algorithmique. Les dispositifs d’identité numérique reconfigurent les rapports entre État, individus et marchés en posant aussi la question de la souveraineté des pays.

 

Télécom Paris Ideas