El profesor de la Universidad de Stanford, Jeff Hancock, fue acusado de citar un estudio inexistente en su testimonio pericial en un caso relacionado con vídeos políticos ultrafalsos, lo que plantea dudas sobre la integridad académica y la aplicación de la IA en el ámbito jurídico. El caso, presentado por el Fiscal General de Minnesota, Keith Ellison, involucra una prohibición en Minnesota que podría representar una amenaza a la libertad de expresión. El testimonio del profesor Hancock apoyó la prohibición, pero el equipo legal del demandante encontró que la investigación que citó no existía y creyó que podría ser contenido falso generado por IA, afectando seriamente la credibilidad del testimonio.
Recientemente, el profesor de comunicaciones de la Universidad de Stanford, Jeff Hancock, atrajo una gran atención después de que fuera acusado de utilizar inteligencia artificial para falsificar testimonios en un caso que involucraba vídeos políticos ultrafalsos. El caso fue presentado por el Fiscal General de Minnesota, Keith Ellison, en relación con la ley recientemente aprobada en Minnesota que prohíbe los vídeos políticos ultrafalsos, que se consideraban una amenaza potencial a la libertad de expresión.
Nota sobre la fuente de la imagen: la imagen es generada por AI y el proveedor de servicios de autorización de imágenes Midjourney
En él, el profesor Hancock presentó una declaración pericial que respalda la ley defendida por el Fiscal General. Sin embargo, el equipo legal descubrió que un estudio citado por Hancock llamado "El impacto de los videos deepfake en las actitudes y el comportamiento políticos" no existía. Señalaron en un memorando de 36 páginas que, aunque existían las revistas pertinentes, dichas investigaciones nunca se habían publicado.
En el memorando, los abogados detallaron sus intentos de encontrar el estudio, enfatizando que la información no se pudo encontrar en Internet ni en múltiples motores de búsqueda académicos. Dijeron: "Un fragmento de este título no se puede encontrar en ninguna parte, ni siquiera en el motor de búsqueda académico Google Scholar". Los abogados cuestionaron la evidencia de Hancock, argumentando que pudo haber sido generada por inteligencia artificial. El contenido falso afecta seriamente la credibilidad de la declaración.
Además, los abogados señalaron que la declaración de Hancock carecía de la metodología de investigación y la lógica analítica necesarias, lo que cuestionaba la credibilidad de toda la declaración. Argumentaron que si partes de la declaración eran falsificadas, todo el testimonio debería considerarse poco fiable y pidieron al tribunal que lo excluyera de su consideración.
El incidente desató un debate generalizado sobre la integridad académica y la aplicación de la inteligencia artificial en el ámbito jurídico. Actualmente, el caso aún se encuentra en trámite y aún no se ha determinado la decisión final del tribunal.
Destacar:
El profesor Hancock está acusado de citar en su evidencia un estudio inexistente que pudo haber sido generado por IA.
El testimonio presentado por el fiscal general de Minnesota, Ellison, ha sido cuestionado, lo que afecta el apoyo al proyecto de ley de vídeos políticos ultrafalsos.
Los abogados de los demandantes pidieron al tribunal que excluyera el testimonio de Hancock, argumentando que su credibilidad general se vio gravemente afectada.
Este incidente resalta los desafíos éticos y legales que plantea el rápido desarrollo de la tecnología de inteligencia artificial y nos recuerda que debemos permanecer atentos a la confiabilidad de las fuentes de información. El desarrollo posterior del caso merece una atención continua y sus resultados tendrán un profundo impacto en la aplicación de la inteligencia artificial en el campo legal.