O mais recente modelo de inteligência artificial do Google, PaliGemma2, tem a capacidade de analisar imagens e gerar legendas, além de poder responder perguntas sobre as emoções e comportamentos das pessoas nas fotos. O modelo é baseado na família de modelos abertos Gemma e fornece uma descrição de imagem mais profunda do que o reconhecimento tradicional de objetos, capaz de identificar emoções e gerar descrições detalhadas que se ajustem ao contexto. No entanto, as implicações éticas e sociais desta tecnologia suscitaram preocupações entre os especialistas, com a fiabilidade das suas capacidades de reconhecimento de emoções e o potencial uso indevido a tornarem-se o foco. Este artigo irá aprofundar as características técnicas, controvérsias éticas e desenvolvimento futuro do PaliGemma2.
O Google lançou recentemente seu modelo de inteligência artificial de nova geração – PaliGemma2, que pode analisar imagens e gerar legendas, ao mesmo tempo que responde perguntas sobre as emoções e ações das pessoas nas fotos. PaliGemma2 é baseado na série de modelos abertos Gemma do Google, fornecendo uma descrição de imagem mais profunda do que o reconhecimento tradicional de objetos, capaz de identificar emoções e gerar descrições detalhadas que se ajustam ao contexto. No entanto, embora esta tecnologia pareça ser uma inovação revolucionária, os especialistas levantaram sérias advertências sobre as suas potenciais implicações éticas e sociais.
O reconhecimento de emoções não é um recurso padrão do PaliGemma2, mas é obtido por meio de ajuste fino. Embora o Google diga que realizou “testes extensivos” e superou os benchmarks da indústria em termos de preconceito demográfico, os especialistas expressaram preocupações sobre a confiabilidade da tecnologia. A professora Sandra Wachter, da Universidade de Oxford, acredita que “há grandes problemas na ‘leitura’ das emoções humanas através da inteligência artificial” e que o processo depende demasiado de suposições, o que pode levar a erros de julgamento e preconceitos.
A tecnologia de reconhecimento de emoções tem sido foco de controvérsia na comunidade tecnológica. Embora estudos iniciais, como a teoria das emoções de Paul Ekman, propusessem seis emoções básicas, pesquisas subsequentes mostraram que a expressão emocional varia muito entre culturas e contextos. O pesquisador Mike Cook, da Queen Mary University, no Reino Unido, apontou que “a complexidade da experiência emocional torna quase impossível a detecção precisa das emoções”. Além disso, pesquisas mostram que os sistemas existentes de análise de expressões faciais costumam ter preconceitos contra certas emoções, como sorrisos ou diferenças nas expressões faciais entre grupos raciais.
À medida que a tecnologia de reconhecimento de emoções se torna gradualmente comercializada, o risco de abuso que ela pode trazer atraiu a atenção de todas as partes. Alguns especialistas temem que este tipo de tecnologia possa ser utilizado na aplicação da lei, no recrutamento e noutros domínios, agravando ainda mais a desigualdade social. A Lei de Inteligência Artificial da UE já impõe restrições estritas à tecnologia de reconhecimento de emoções, especialmente quando utilizada em ambientes de alto risco.
O Google insiste que PaliGemma2 considerou totalmente as questões éticas e de segurança durante a fase de teste, especialmente crianças e segurança de conteúdo. No entanto, a adequação destas garantias continua por analisar. Heidy Khlaaf, do AI Now Institute, disse que o reconhecimento de emoções não é apenas um problema visual, mas também envolve um profundo contexto social e cultural. “As emoções não podem ser inferidas com precisão apenas pelas características faciais”.
Com o lançamento público desta tecnologia, o PaliGemma2 não só promoverá a aplicação da inteligência artificial no campo da compreensão de imagens, mas também colocará novos desafios à ética social e à privacidade de dados, exigindo urgentemente a atenção e intervenção das agências reguladoras relevantes.
O surgimento do PaliGemma2 sem dúvida promoveu o desenvolvimento da tecnologia de compreensão de imagens de inteligência artificial, mas também expôs as limitações e riscos potenciais da tecnologia de reconhecimento de emoções. No futuro, a aplicação da tecnologia precisa de encontrar um equilíbrio entre inovação e ética, e reforçar a supervisão para garantir que não haja abusos, a fim de melhor servir a sociedade.