O professor da Universidade de Stanford, Jeff Hancock, foi acusado de citar um estudo inexistente em seu depoimento de especialista em um caso envolvendo vídeos políticos deepfake, levantando questões sobre integridade acadêmica e a aplicação de IA no campo jurídico. O caso, apresentado pelo procurador-geral de Minnesota, Keith Ellison, envolve uma proibição em Minnesota que pode representar uma ameaça à liberdade de expressão. O depoimento do professor Hancock apoiou a proibição, mas a equipe jurídica do demandante descobriu que a pesquisa citada por ele não existia e acreditava que poderia ser conteúdo falso gerado por IA, afetando seriamente a credibilidade do depoimento.
Recentemente, Jeff Hancock, professor de comunicações da Universidade de Stanford, atraiu grande atenção depois de ser acusado de usar inteligência artificial para falsificar testemunhos em um caso envolvendo vídeos políticos deepfake. O caso foi movido pelo procurador-geral de Minnesota, Keith Ellison, sobre a lei recentemente aprovada em Minnesota que proíbe vídeos políticos falsos, que foram considerados uma ameaça potencial à liberdade de expressão.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
Nele, o professor Hancock apresentou parecer pericial apoiando a lei defendida pelo Procurador-Geral. No entanto, a equipe jurídica descobriu que um estudo citado por Hancock chamado “O Impacto dos Vídeos Deepfake nas Atitudes e Comportamentos Políticos” não existia. Eles salientaram num memorando de 36 páginas que, embora existissem revistas relevantes, tal investigação nunca tinha sido publicada.
No memorando, os advogados detalharam suas tentativas de encontrar o estudo, enfatizando que a informação não foi encontrada na Internet e em diversos mecanismos de busca acadêmicos. Eles disseram: "Um fragmento deste título não pode ser encontrado em lugar nenhum, nem mesmo no mecanismo de busca acadêmico Google Scholar." Os advogados questionaram as evidências de Hancock, argumentando que podem ter sido geradas por inteligência artificial. O conteúdo falso afeta seriamente a credibilidade da declaração.
Além disso, os advogados apontaram que a declaração de Hancock carecia da metodologia de pesquisa e da lógica analítica necessárias, o que questionava a credibilidade de toda a declaração. Eles argumentaram que se partes da declaração fossem falsificadas, todo o testemunho deveria ser considerado não confiável e pediram ao tribunal que o excluísse de consideração.
O incidente gerou ampla discussão sobre integridade acadêmica e a aplicação de inteligência artificial na área jurídica. Atualmente, o caso ainda está em tramitação e a decisão final do tribunal ainda não foi determinada.
Destaque:
O professor Hancock é acusado de citar em suas evidências um estudo inexistente que pode ter sido gerado pela IA.
O depoimento apresentado pelo procurador-geral de Minnesota, Ellison, foi questionado, afetando o apoio ao projeto de lei política de vídeos falsos.
Os advogados dos demandantes apelaram ao tribunal para excluir o testemunho de Hancock, argumentando que a sua credibilidade geral foi seriamente afetada.
Este incidente destaca os desafios éticos e legais colocados pelo rápido desenvolvimento da tecnologia de inteligência artificial e lembra-nos que devemos permanecer vigilantes quanto à fiabilidade das fontes de informação. O posterior desenvolvimento do caso merece atenção continuada e os seus resultados terão um impacto profundo na aplicação da inteligência artificial no domínio jurídico.