Le dernier modèle d'intelligence artificielle de Google, PaliGemma2, a la capacité d'analyser les images et de générer des légendes, et de répondre aux questions sur les émotions et les comportements des personnes figurant sur les photos. Le modèle est basé sur la famille de modèles ouverts Gemma et fournit une description d'image plus approfondie que la reconnaissance d'objets traditionnelle, capable d'identifier les émotions et de générer des descriptions détaillées adaptées au contexte. Cependant, les implications éthiques et sociales de cette technologie ont suscité des inquiétudes parmi les experts, la fiabilité de ses capacités de reconnaissance des émotions et son utilisation abusive potentielle étant devenues une priorité. Cet article approfondira les caractéristiques techniques, les controverses éthiques et le développement futur de PaliGemma2.
Google a récemment publié son modèle d'intelligence artificielle de nouvelle génération, PaliGemma2, capable d'analyser des images et de générer des légendes, tout en répondant à des questions sur les émotions et les actions des personnes présentes sur les photos. PaliGemma2 est basé sur la série de modèles ouverts Gemma de Google, fournissant une description d'image plus approfondie que la reconnaissance d'objets traditionnelle, capable d'identifier les émotions et de générer des descriptions détaillées adaptées au contexte. Cependant, même si cette technologie semble être une innovation révolutionnaire, les experts ont émis de sérieuses mises en garde quant à ses potentielles implications éthiques et sociales.
La reconnaissance des émotions n'est pas une fonctionnalité standard de PaliGemma2, mais est obtenue grâce à un réglage fin. Bien que Google affirme avoir effectué des « tests approfondis » et avoir surpassé les références du secteur en matière de biais démographique, les experts ont exprimé des inquiétudes quant à la fiabilité de la technologie. Le professeur Sandra Wachter, de l'Université d'Oxford, estime que "la lecture des émotions humaines grâce à l'intelligence artificielle pose des problèmes majeurs" et que le processus repose trop sur des hypothèses, ce qui peut conduire à des erreurs de jugement et à des biais.
La technologie de reconnaissance des émotions est depuis longtemps au centre de controverses dans la communauté technologique. Alors que les premières études telles que la théorie des émotions de Paul Ekman proposaient six émotions fondamentales, des recherches ultérieures ont montré que l'expression émotionnelle varie considérablement selon les cultures et les contextes. Le chercheur Mike Cook de l'Université Queen Mary au Royaume-Uni a souligné que « la complexité de l'expérience émotionnelle rend presque impossible une détection précise des émotions ». De plus, la recherche montre que les systèmes d’analyse des expressions faciales existants ont souvent des préjugés contre certaines émotions, telles que le sourire ou les différences d’expressions faciales entre les groupes raciaux.
À mesure que la technologie de reconnaissance des émotions est progressivement commercialisée, le risque d’abus qu’elle peut engendrer a attiré l’attention de toutes les parties. Certains experts craignent que ce type de technologie ne soit utilisé dans les domaines de l’application de la loi, du recrutement et dans d’autres domaines, aggravant ainsi les inégalités sociales. Le projet de loi européen sur l'intelligence artificielle impose déjà des restrictions strictes sur la technologie de reconnaissance des émotions, en particulier lorsqu'elle est utilisée dans des environnements à haut risque.
Google insiste sur le fait que PaliGemma2 a pleinement pris en compte les questions d'éthique et de sécurité pendant la phase de test, en particulier la sécurité des enfants et du contenu. Toutefois, l'adéquation de ces garanties reste à vérifier. Le Dr Heidy Khlaaf de l'AI Now Institute a déclaré que la reconnaissance des émotions n'est pas seulement un problème visuel, mais implique également un contexte social et culturel profond. "Les émotions ne peuvent pas être déduites avec précision à partir des seuls traits du visage".
Avec la diffusion publique de cette technologie, PaliGemma2 favorisera non seulement l'application de l'intelligence artificielle dans le domaine de la compréhension des images, mais posera également de nouveaux défis en matière d'éthique sociale et de confidentialité des données, nécessitant de toute urgence l'attention et l'intervention des agences de réglementation compétentes.
L’émergence de PaliGemma2 a sans aucun doute favorisé le développement de la technologie de compréhension des images par l’intelligence artificielle, mais elle a également mis en évidence les limites et les risques potentiels de la technologie de reconnaissance des émotions. À l’avenir, l’application de la technologie devra trouver un équilibre entre innovation et éthique, et renforcer la surveillance pour garantir qu’elle ne soit pas utilisée de manière abusive afin de mieux servir la société.