O mais recente modelo de IA do Google, PaliGemma2, afirma ser capaz de identificar emoções humanas por meio de análise de imagens, causando ampla controvérsia. O modelo é baseado no modelo aberto Gemma e é capaz de gerar descrições detalhadas de imagens, incluindo comportamento e emoções dos personagens. No entanto, os especialistas questionaram fortemente a natureza científica e a segurança desta tecnologia, acreditando que a sua teoria básica é fraca e pode ter graves preconceitos e riscos éticos.
O Google lançou recentemente uma nova família de modelos de IA, PaliGemma2. Sua característica mais atraente é que ele afirma ser capaz de “reconhecer” as emoções humanas por meio da análise de imagens. Esta afirmação desencadeou rapidamente uma discussão generalizada e sérias dúvidas entre académicos e especialistas em ética tecnológica.
Este sistema de IA baseado no modelo aberto Gemma pode gerar descrições detalhadas de imagens, não apenas um simples reconhecimento de objetos, mas também tentar descrever os comportamentos e emoções dos personagens nas imagens. No entanto, muitos especialistas autorizados emitiram alertas sérios sobre a ciência e os riscos potenciais desta tecnologia.
Sandra Wachter, professora de ética de dados do Oxford Internet Institute, diz sem rodeios que tentar “ler” as emoções humanas através da IA é como “pedir conselhos a uma bola oito mágica”. Esta metáfora revela vividamente o absurdo da tecnologia de reconhecimento de emoções.
Na verdade, a própria base científica para o reconhecimento das emoções é extremamente frágil. A teoria inicial das seis emoções básicas proposta pelo psicólogo Paul Ekman foi amplamente questionada por pesquisas subsequentes. Existem diferenças significativas na forma como as pessoas de diferentes culturas expressam emoções, tornando o reconhecimento universal das emoções uma tarefa quase impossível.
Mike Cook, pesquisador de IA da Queen Mary University, diz de forma mais direta: a detecção de emoções é impossível em um sentido geral. Embora os humanos muitas vezes acreditem que podem julgar as emoções dos outros através da observação, esta capacidade é muito mais complexa e pouco fiável do que se imagina.
O que é ainda mais preocupante é que tais sistemas de IA têm frequentemente preconceitos graves. Vários estudos demonstraram que os modelos de análise facial podem produzir diferentes julgamentos emocionais para pessoas de diferentes cores de pele, o que sem dúvida agravará a discriminação social existente.
Embora o Google afirme ter testado extensivamente o PaliGemma2 e ter tido um bom desempenho em alguns benchmarks, os especialistas permanecem seriamente céticos. Eles acreditam que os testes limitados por si só não podem avaliar completamente os riscos éticos que esta tecnologia pode representar.
O mais perigoso é que este modelo aberto pode ser alvo de abusos em áreas-chave como o emprego, a educação, a aplicação da lei, etc., causando danos reais a grupos vulneráveis. Tal como adverte o professor Wachter, isto poderá levar a um futuro "fugitivo" aterrador: as oportunidades de emprego, empréstimos e educação das pessoas serão determinadas pelo "julgamento emocional" de um sistema de IA não fiável.
Hoje, com o rápido desenvolvimento da inteligência artificial, a inovação tecnológica é importante, mas a ética e a segurança não podem ser ignoradas. O surgimento do PaliGemma2 destaca mais uma vez a necessidade de mantermos uma visão clara e crítica da tecnologia de IA.
A controvérsia de PaliGemma2 lembra-nos que precisamos de tratar a tecnologia de IA com cautela, especialmente em áreas que envolvem emoções humanas e justiça social. No futuro desenvolvimento da IA, deve ser dada prioridade às considerações éticas para evitar a utilização indevida da tecnologia e consequências sociais irreparáveis.