Recientemente, surgió una controversia de alto perfil en una demanda federal en Minnesota sobre la ley "usando tecnología deepfake para influir en las elecciones": el contenido de la declaración jurada que respalda la ley fue cuestionado como texto generado por IA. El núcleo de este incidente es que en las pruebas presentadas por el Fiscal General, se alegaba que muchos trabajos de investigación eran inexistentes, lo que generó preocupaciones sobre la aplicación de la tecnología de inteligencia artificial en el campo legal y graves desafíos a la verificación de la autenticidad. de información. Este incidente no sólo está relacionado con la equidad de los procedimientos legales, sino que también resalta la importancia de mantener la precisión de la información en la era de la inteligencia artificial.
Recientemente, ha surgido una nueva controversia en una demanda federal en curso en Minnesota sobre el uso de deepfakes para influir en las elecciones. Las declaraciones juradas que respaldan la ley pueden contener texto generado por inteligencia artificial, dijeron los abogados de los demandantes en el último expediente legal.
Nota sobre la fuente de la imagen: la imagen es generada por AI y el proveedor de servicios de autorización de imágenes Midjourney
Según el Minnesota Reformer, el fiscal general del estado, Keith Ellison, pidió a Jeff Hancock, director fundador del Stanford Social Media Lab, que proporcionara pruebas relevantes. Sin embargo, varios de los estudios mencionados en la declaración jurada de Hancock carecen de pruebas sustanciales y muestran posibles "alucinaciones" de la IA.
La declaración jurada de Hancock citó un estudio de 2023 publicado en el Journal of Information Technology and Politics titulado "El impacto de los videos deepfake en las actitudes y el comportamiento políticos".
Sin embargo, no se encontró ningún registro del estudio en la revista ni en ninguna otra publicación, según los informes. Además, otro estudio mencionado en la declaración jurada titulado "Deepfakes and the Illusion of Authenticity: Cognitive Processes Behind the Acceptance of Misinformation" también carece de base empírica.
En respuesta, los abogados de la representante de Minnesota Mary Franson y el YouTuber conservador Christopher Khols dijeron en la presentación: "Estas citas claramente tienen el efecto de funciones de 'ilusión' de inteligencia artificial (IA), lo que implica que al menos parte del contenido es generado por grandes Modelos de lenguaje como ChatGPT”. Señalaron además que tal situación pone en duda la credibilidad de toda la declaración jurada, especialmente porque muchos de sus argumentos carecen del sustento de la metodología y la lógica analítica.
Hancock no respondió al incidente. Este incidente desencadenó una discusión sobre la aplicación de la inteligencia artificial en el campo legal, especialmente cuando se trata de asuntos electorales y de interés público. Cómo garantizar la exactitud y confiabilidad de la información se ha convertido en un tema importante.
Este incidente no sólo llama la atención sobre el impacto de la tecnología deepfakes, sino que también proporciona nuevas ideas a la comunidad jurídica cuando se trata de pruebas relacionadas con la inteligencia artificial. Cómo identificar y verificar eficazmente las fuentes de información se ha convertido en un desafío importante que debe afrontarse en la práctica jurídica.
Destacar:
Se ha cuestionado que el contenido de la declaración jurada de la Ley Deepfakes de Minnesota sea texto generado por IA.
El equipo legal señaló que la investigación citada no existía y sospechaba que se trataba de una "alucinación" de la IA.
Este incidente desencadenó un debate generalizado sobre el uso de inteligencia artificial en documentos legales, centrándose en la exactitud de la información.
Este incidente ha hecho sonar la alarma para la comunidad jurídica, recordándonos que debemos reexaminar la aplicación de la tecnología de inteligencia artificial en las pruebas legales y establecer un mecanismo de verificación más completo para garantizar la equidad y confiabilidad de los procedimientos legales. En el futuro, cómo identificar y prevenir eficazmente la información falsa generada por la IA se convertirá en un tema importante.