Recentemente, em um processo federal sobre uma lei sobre a lei do "uso da tecnologia de falsificação profunda", houve uma controvérsia impressionante: o conteúdo de juramento que apoiava a lei foi questionado como IA para gerar texto. O núcleo desse incidente é que, nas evidências apresentadas pelo Ministro da Justiça, vários trabalhos de pesquisa foram acusados de não existir, causando preocupações sobre a aplicação da tecnologia de inteligência artificial no campo legal e os desafios graves da verificação da autenticidade da informação . Esse incidente não está apenas relacionado à justiça dos procedimentos legais, mas também destaca a importância de manter a precisão das informações na era da inteligência artificial.
Recentemente, uma nova controvérsia apareceu em um processo federal sobre a lei sobre o processo federal em andamento da lei sobre a lei de "Usando a Tecnologia de Falavaria Deep". O Grupo de Advogados Autor apontou nos últimos documentos legais que os juramentos que apóiam essa lei podem incluir textos gerados pela inteligência artificial.
Observações da fonte da imagem: As imagens são geradas por IA, provedor de serviços de autorização de imagens Midjourney
De acordo com o "Reformador de Minnesota", Keith Ellison, ministro da Justiça do Estado, perguntou a Jeff Hancock, diretor fundador do Laboratório de Mídia Social de Stanford. No entanto, vários estudos mencionados nos juramentos apresentados por Hancock não tiveram evidências substanciais e mostraram possíveis "alucinações" de IA.
O juramento de Hankak citou uma pesquisa publicada em "Tecnologia da informação e revista política" em 2023, intitulada "Estado político e comportamento do Deep Falunage Video".
No entanto, relatórios relevantes apontaram que nenhum registro deste estudo foi encontrado na revista ou em qualquer outra publicação. Além disso, o estudo mencionado no juramento chamado "a ilusão de profunda falsificação e autenticidade: o processo cognitivo por trás da mensagem de erro" também carece de uma base empírica.
Nesse sentido, Mary Franson e os advogados conservadores do YouTuber Kristopher Khols disseram no documento: "Essas citações obviamente têm ilusões de inteligência artificial (IA) no documento. Como ChatGPT.
Hancock não respondeu ao incidente. Esse incidente desencadeou uma discussão sobre a aplicação da inteligência artificial no campo legal.
Esse incidente não apenas presta atenção ao impacto da tecnologia de falsificação profunda, mas também fornece novos pensamentos para a comunidade jurídica ao lidar com evidências relacionadas à inteligência artificial. Para como identificar e verificar efetivamente a fonte de informação, tornou -se um desafio importante para enfrentar na prática jurídica.
Pontos:
O conteúdo do juramento do ato de Mingzhou Deep Facing foi questionado como um texto gerado pela IA.
A equipe de advogados apontou que a pesquisa referenciada não existia, e suspeita -se que a "alucinação" da IA tenha ocorrido.
Esse incidente desencadeou uma discussão generalizada sobre a inteligência artificial no uso de documentos legais e preste atenção à precisão da informação.
Esse incidente soou com o alarme para a comunidade jurídica, sugerindo que precisamos reexaminar a aplicação da tecnologia de inteligência artificial em evidências legais e estabelecer um mecanismo de verificação mais completo para garantir a justiça e a confiabilidade dos procedimentos legais. No futuro, como identificar e impedir efetivamente as informações falsas geradas pela IA se tornarão um tópico importante.