El exabogado de Trump, Michael Cohen, admitió recientemente haber citado casos falsos generados por IA en sus documentos judiciales. Confundió Bard de Google con un “súper motor de búsqueda” y citó contenido generado por IA sin verificación cuando utilizó Bard para investigaciones legales. Cohen afirmó que no engañó intencionalmente al tribunal, sino que carecía de conocimientos sobre la tecnología jurídica de la IA. Este incidente no es un caso aislado. Ya han aparecido referencias falsas similares generadas por IA en documentos judiciales, lo que generó una controversia generalizada y destacó los riesgos y desafíos de la aplicación de la tecnología de IA en el campo legal.
El ex abogado de Trump, Michael Cohen, admitió en documentos judiciales haber citado casos falsos generados por inteligencia artificial sobre el uso de Bard de Google para realizar investigaciones legales mientras lo trataba erróneamente como un "súper motor de búsqueda". Cohen afirmó que no engañó intencionalmente al tribunal y que no tenía un conocimiento suficiente de la tecnología legal de IA. Citas falsas similares generadas por IA han aparecido anteriormente en documentos judiciales, lo que ha causado cierta controversia.
El incidente de Cohen nos recuerda una vez más que al aplicar la tecnología de IA en el campo legal, debemos evaluar cuidadosamente su confiabilidad y precisión, y fortalecer la ética y la supervisión de las herramientas de IA. La confianza en la tecnología de IA debe basarse en una comprensión total de sus limitaciones para evitar consecuencias graves causadas por un uso indebido. En el futuro, un tema importante será cómo utilizar mejor la IA para ayudar a la investigación jurídica y al mismo tiempo evitar sus riesgos potenciales.