Le dernier modèle d'IA de Google, PaliGemma2, prétend être capable d'identifier les émotions humaines grâce à l'analyse d'images, ce qui suscite une large controverse. Le modèle est basé sur le modèle ouvert Gemma et est capable de générer des descriptions d'images détaillées, y compris le comportement et les émotions des personnages. Cependant, les experts ont fortement remis en question la nature scientifique et la sécurité de cette technologie, estimant que sa théorie de base est faible et peut comporter de sérieux biais et risques éthiques.
Google a récemment lancé une nouvelle famille de modèles d'IA, PaliGemma2. Sa caractéristique la plus frappante est qu'elle prétend être capable de « reconnaître » les émotions humaines grâce à l'analyse d'images. Cette affirmation a rapidement déclenché de larges discussions et de sérieux doutes parmi les universitaires et les experts en éthique technologique.
Ce système d'IA basé sur le modèle ouvert Gemma peut générer des descriptions d'images détaillées, non seulement une simple reconnaissance d'objets, mais également essayer de décrire les comportements et les émotions des personnages dans les images. Cependant, de nombreux experts faisant autorité ont émis de sérieux avertissements concernant la science et les risques potentiels de cette technologie.
Sandra Wachter, professeur d'éthique des données à l'Oxford Internet Institute, dit sans ambages qu'essayer de « lire » les émotions humaines grâce à l'IA, c'est comme « demander conseil à une boule magique ». Cette métaphore révèle clairement l’absurdité de la technologie de reconnaissance des émotions.
En fait, la base scientifique de la reconnaissance des émotions elle-même est extrêmement fragile. La première théorie des six émotions fondamentales proposée par le psychologue Paul Ekman a été largement remise en question par les recherches ultérieures. Il existe des différences significatives dans la manière dont les personnes de différentes cultures expriment leurs émotions, ce qui rend la reconnaissance universelle des émotions une tâche presque impossible.
Mike Cook, chercheur en IA à l'Université Queen Mary, le dit plus crûment : la détection des émotions est impossible au sens général. Bien que les humains croient souvent qu’ils peuvent juger les émotions des autres grâce à l’observation, cette capacité est bien plus complexe et peu fiable qu’on ne l’imagine.
Ce qui est encore plus inquiétant, c’est que ces systèmes d’IA présentent souvent de sérieux biais. De nombreuses études ont montré que les modèles d’analyse faciale peuvent produire des jugements émotionnels différents selon les personnes de différentes couleurs de peau, ce qui exacerbera sans aucun doute la discrimination sociale existante.
Bien que Google affirme avoir testé PaliGemma2 de manière approfondie et avoir obtenu de bons résultats sur certains benchmarks, les experts restent très sceptiques. Ils estiment que des tests limités ne peuvent à eux seuls évaluer pleinement les risques éthiques que cette technologie peut poser.
Le plus dangereux est que ce modèle ouvert puisse être utilisé à mauvais escient dans des domaines clés tels que l’emploi, l’éducation, l’application de la loi, etc., causant ainsi un préjudice réel aux groupes vulnérables. Comme le prévient le professeur Wachter, cela pourrait conduire à un avenir « incontrôlable » terrifiant : les opportunités d’emploi, de prêt et d’éducation des gens seront déterminées par le « jugement émotionnel » d’un système d’IA peu fiable.
Aujourd’hui, avec le développement rapide de l’intelligence artificielle, l’innovation technologique est importante, mais l’éthique et la sécurité ne peuvent être ignorées. L’émergence de PaliGemma2 souligne une fois de plus la nécessité de maintenir un regard clair et critique sur la technologie de l’IA.
La controverse de PaliGemma2 nous rappelle que nous devons traiter la technologie de l’IA avec prudence, en particulier dans les domaines impliquant les émotions humaines et la justice sociale. Dans le développement futur de l’IA, les considérations éthiques devraient avoir la priorité afin d’éviter une utilisation abusive de la technologie et des conséquences sociales irréparables.