Recientemente, surgió una controversia de alto perfil en una demanda federal en Minnesota sobre el uso de deepfakes para influir en las elecciones. En las pruebas presentadas por el fiscal general del estado, se sospechaba que algunas referencias a investigaciones clave fueron generadas por inteligencia artificial, lo que desencadenó una amplia discusión sobre la aplicación de la inteligencia artificial en el campo legal y preguntas importantes sobre cómo garantizar la precisión y confiabilidad. de información. El editor de Downcodes realizará un análisis detallado de este incidente.
Nota sobre la fuente de la imagen: la imagen es generada por AI y el proveedor de servicios de autorización de imágenes Midjourney
Según el Minnesota Reformer, el fiscal general del estado, Keith Ellison, pidió a Jeff Hancock, director fundador del Stanford Social Media Lab, que proporcionara pruebas relevantes. Sin embargo, varios de los estudios mencionados en la declaración jurada de Hancock carecen de pruebas sustanciales y muestran posibles "alucinaciones" de la IA.
La declaración jurada de Hancock citó un estudio de 2023 publicado en el Journal of Information Technology and Politics titulado "El impacto de los videos deepfake en las actitudes y el comportamiento políticos".
Sin embargo, no se encontró ningún registro del estudio en la revista ni en ninguna otra publicación, según los informes. Además, otro estudio mencionado en la declaración jurada titulado "Deepfakes and the Illusion of Authenticity: Cognitive Processes Behind the Acceptance of Misinformation" también carece de base empírica.
En respuesta, los abogados de la representante de Minnesota Mary Franson y el YouTuber conservador Christopher Khols dijeron en la presentación: "Estas citas claramente tienen el efecto de funciones de 'ilusión' de inteligencia artificial (IA), lo que implica que al menos parte del contenido es generado por grandes modelos de lenguaje como ChatGPT”. Señalaron además que tal situación pone en duda la credibilidad de toda la declaración jurada, especialmente porque muchos de sus argumentos carecen del sustento de la metodología y la lógica analítica.
Hancock no respondió al incidente. Este incidente desencadenó una discusión sobre la aplicación de la inteligencia artificial en el campo legal, especialmente cuando se trata de asuntos electorales y de interés público. Cómo garantizar la exactitud y confiabilidad de la información se ha convertido en un tema importante.
Este incidente no sólo llama la atención sobre el impacto de la tecnología deepfakes, sino que también proporciona nuevas ideas a la comunidad jurídica cuando se trata de pruebas relacionadas con la inteligencia artificial. Cómo identificar y verificar eficazmente las fuentes de información se ha convertido en un desafío importante que debe afrontarse en la práctica jurídica.
Este incidente expuso los riesgos de aplicar la tecnología de IA en el campo legal y también nos advirtió que debemos ser cautelosos con el contenido generado por IA, especialmente en la aplicación de materiales de evidencia, y que se necesita una revisión y verificación estrictas para garantizar la autenticidad. y confiabilidad de la información. Esto es crucial para mantener la justicia y la autoridad de la ley.