
Des outils dits d’« IA émotionnelle » s’installent progressivement dans les environnements de travail, selon une enquête publiée dans The Atlantic. Ces logiciels analysent les expressions du visage, la voix ou les échanges écrits pour tenter de déduire l’état émotionnel des employés.
Le marché mondial de ces technologies devrait tripler d’ici 2030, pour atteindre neuf milliards de dollars. Une croissance qui inquiète chercheurs et défenseurs des droits, au regard des failles scientifiques et éthiques relevées.
A lire aussi
- OpenAI : les employés cèdent 6 milliards de dollars d’actions, valorisant l’entreprise à 500 milliards de dollars
- Crypto : 651 millions de dollars volés en avril, un record depuis 2022
Des déploiements concrets dans plusieurs secteurs
Les cas d’usage recensés dans l’enquête sont variés. MetLife surveille le ton et le débit de voix de ses agents en centre d’appels. Burger King teste un casque connecté baptisé « Patty » qui évalue la « convivialité » des interactions avec les clients.

Le fabricant de mobilier Framery a expérimenté des sièges de bureau équipés de capteurs biologiques mesurant le rythme cardiaque, la respiration et l’état de stress. Des outils intégrés à Slack, comme Aware, ou la plateforme Azure de Microsoft, analysent quant à eux le sentiment général des communications internes.
Dans le recrutement, des solutions comme celles proposées par Imentiv examinent les vidéos d’entretien pour en extraire des indicateurs émotionnels, utilisés ensuite dans les décisions d’embauche ou de promotion.
Une science largement remise en question
Beaucoup de ces outils s’appuient sur la théorie des six émotions de base développée par Paul Ekman. Or, ce cadre est critiqué depuis plusieurs décennies par la communauté scientifique, qui le juge trop simpliste et méthodologiquement défaillant.
La neuroscientifique Lisa Feldman Barrett souligne que les expressions faciales ou corporelles n’ont pas de signification émotionnelle intrinsèque : leur sens dépend du contexte relationnel. Aux États-Unis, par exemple, les personnes froncent les sourcils sous l’effet de la colère dans seulement 35 % des cas environ.

Une étude de Lauren Rhue a par ailleurs mis en évidence un biais racial : des systèmes d’analyse émotionnelle ont classifié des joueurs NBA noirs comme plus en colère que leurs coéquipiers blancs, y compris dans des situations où ils souriaient. Ces biais peuvent avoir des conséquences directes sur les décisions RH.
Des dommages réels et un cadre juridique fragmenté
Les effets concrets de ces dispositifs sur les salariés ont déjà été documentés. Une enquête du New York Times de 2022 a révélé que des travailleurs sociaux chez UnitedHealth avaient été pénalisés pour inactivité clavier, alors qu’ils étaient en conversation téléphonique avec des patients.
L’ACLU a également mis en cause la plateforme de recrutement HireVue et son client Intuit, dans une affaire où une candidate sourde aurait été écartée d’une promotion, un email lui conseillant de « pratiquer l’écoute active ». HireVue et Intuit contestent ces allégations.
Face à ces dérives, l’Union européenne a interdit l’IA émotionnelle en milieu professionnel dans le cadre du règlement sur l’IA, avec des exceptions limitées aux domaines médical et sécuritaire. MorphCast, l’un des acteurs du secteur basé à Florence, a répondu à cette interdiction en transférant son siège social en Californie.
Une surveillance qui pourrait s’aggraver si la technologie s’améliore
Le paradoxe soulevé par l’enquête est que les risques ne disparaîtraient pas avec des outils plus performants. Aujourd’hui défaillants et biaisés, ils nuisent aux salariés de façon arbitraire. Mais s’ils devenaient réellement efficaces, ils imposeraient une nouvelle forme de charge mentale.
Les travailleurs auraient alors à gérer, en plus de leurs missions habituelles, la nécessité de paraître suffisamment enthousiastes aux yeux d’un système automatisé. Une perspective qui déplace le problème sans le résoudre.
Source : The-decoder

