Ces dernières années, la technologie de reconnaissance des émotions est devenue de plus en plus utilisée dans le domaine commercial, mais ses enjeux scientifiques et éthiques sont très controversés. De nombreuses entreprises affirment que leur logiciel de reconnaissance des émotions par l’IA peut évaluer avec précision les émotions humaines, mais de nombreuses études ont souligné que cette technologie présente de sérieux défauts et que sa précision est bien inférieure à celle annoncée.
Ces dernières années, la technologie de reconnaissance des émotions a progressivement émergé dans l’industrie technologique. De nombreuses entreprises technologiques ont lancé un logiciel de reconnaissance des émotions basé sur l'IA, prétendant être capable de déterminer l'état émotionnel d'une personne, notamment le bonheur, la tristesse, la colère et la frustration, à partir de données biométriques. Cependant, un nombre croissant de recherches scientifiques montrent que ces technologies ne sont pas aussi fiables qu’on le prétend.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Selon les dernières recherches, la technologie de reconnaissance des émotions est confrontée à de sérieux problèmes de validité scientifique. De nombreuses entreprises prétendent que ces systèmes sont objectifs et ancrés dans des méthodes scientifiques, mais en réalité, ils s’appuient souvent sur des théories dépassées. Ces théories supposent que les émotions peuvent être quantifiées et avoir les mêmes manifestations partout dans le monde, mais en réalité, l’expression des émotions est profondément affectée par la culture, l’environnement et les différences individuelles. Par exemple, l'humidité de la peau d'une personne peut augmenter, diminuer ou rester la même lorsqu'elle est en colère, ce qui rend impossible pour un seul indicateur biologique de juger avec précision l'émotion.
Dans le même temps, ces technologies de reconnaissance des émotions présentent également des risques juridiques et sociaux, notamment sur le lieu de travail. En vertu de la nouvelle réglementation européenne, l’utilisation de systèmes d’IA qui déduisent des émotions est interdite sur le lieu de travail, sauf pour des raisons médicales ou de sécurité. En Australie, la réglementation dans ce domaine n’a pas encore rattrapé son retard. Même si certaines entreprises ont essayé d’utiliser l’analyse des émotions faciales lors du recrutement, l’efficacité et l’éthique de ces technologies ont soulevé de nombreuses questions.
En outre, la technologie de reconnaissance des émotions présente également des problèmes potentiels de biais. Ces systèmes peuvent faire preuve de discrimination à l'égard de personnes de races, de sexes et de handicaps différents lors de la reconnaissance des émotions. Par exemple, certaines recherches montrent que les systèmes de reconnaissance des émotions sont plus susceptibles d’identifier les visages noirs comme étant en colère, même si les deux personnes sourient au même niveau.
Même si les entreprises technologiques reconnaissent le problème des biais dans la reconnaissance des émotions, elles soulignent que les biais proviennent principalement des ensembles de données utilisés pour entraîner ces systèmes. En réponse à ce problème, inTruth Technologies a déclaré qu'elle s'engage à utiliser des ensembles de données diversifiés et inclusifs pour réduire les biais.
L’opinion publique à l’égard de la technologie de reconnaissance des émotions n’est pas optimiste. Une enquête récente a montré que seulement 12,9 % des adultes australiens soutiennent l’utilisation de la technologie de reconnaissance faciale des émotions sur le lieu de travail, nombre d’entre eux la considérant comme une atteinte à la vie privée.
En résumé, le développement de la technologie de reconnaissance des émotions est confronté à d’énormes défis. Sa validité scientifique, ses risques éthiques et ses problèmes de préjugés sociaux nécessitent tous une large attention et un débat approfondi. Avant qu’une technologie soit appliquée, ses impacts négatifs potentiels doivent être priorisés et les mesures réglementaires correspondantes doivent être élaborées.