L’affective computing : le défi de l’interprétation des émotions humaines

Amazon, Microsoft, Google, Apple… on ne compte plus les entreprises qui misent aujourd’hui sur les assistants virtuels pour favoriser l’engagement de leurs clients. Ces assistants ont un véritable impact économique en agissant sur la composante socio-émotionnelle des interactions humain-machine. Avec l’affective computing, le défi est de rendre ces assistants de plus en plus fins dans leur compréhension des comportements humains et, notamment, de leurs comportements sociaux et émotionnels et ainsi favoriser le sentiment de proximité avec l’utilisateur qui repose en outre sur une interaction fluide et naturelle avec la machine.

Les informations disponibles pour calculer les modèles de comportement social de l’utilisateur sont les signaux acquis par le système via des capteurs (image, son et ses transcriptions à l’aide de systèmes de reconnaissance vocale automatique et éventuellement de capteurs physiologiques).   Les données manipulées sont donc des données brutes : échantillons de sons, ou pixels d’images.   L’information à prédire est le comportement socio-émotionnel de l’utilisateur, un phénomène complexe que même les humains ont des difficultés à analyser. Les méthodes utilisées pour entrainer les systèmes à percevoir les comportements sociaux sont des méthodes d’apprentissage et, actuellement, des méthodes d’apprentissage profond qui reposent sur la mise à disposition de grand corpus de données annotées en comportements socio-émotionnels.

Du point de vue éthique, il est indispensable de rendre transparent le fonctionnement de ces méthodes de détection. En effet, l’opacité des méthodes d’apprentissage profond retarde l’utilisation de ces méthodes dans des secteurs tels que la santé, l’éducation ou les ressources humaines, par exemple. Il est crucial de pouvoir interpréter les résultats et comprendre les erreurs de ces systèmes qui sont forcément sujets à la subjectivité. Chaque individu peut interpréter différemment les émotions d’une personne et les méthodes d’apprentissage supervisées s’appuient sur ces interprétations pour la supervision de leurs modèles. Cette question de l’explicabilité des algorithmes est fondamentale et l’un des axes de recherche de l’initiative Operational AI Ethics de Télécom Paris, Institut Polytechnique de Paris.

 

Pour en savoir plus sur les enjeux éthiques, techniques et juridiques des assistants vocaux découvrez le livre Blanc de CNIL : https://www.cnil.fr/sites/default/files/atoms/files/cnil_livre-blanc-assistants-vocaux.pdf

 

_____________________________________________________________________

Chloé Clavel, Télécom Paris, Institut Polytechnique de Paris

_____________________________________________________________________

 

Illustration : Designed by pch.vector / Freepik