Бывший адвокат Трампа Майкл Коэн недавно признался, что в своих судебных документах ссылался на ложные дела, сгенерированные ИИ. Он принял Bard от Google за «суперпоисковую систему» и без проверки процитировал созданный искусственным интеллектом контент при использовании Bard для юридических исследований. Коэн заявил, что он не намеренно вводил суд в заблуждение, но ему не хватало понимания юридических технологий искусственного интеллекта. Этот инцидент не является единичным случаем. Подобные ложные ссылки, созданные ИИ, уже появлялись в судебных документах, что вызвало широкую полемику и подчеркнуло риски и проблемы применения технологий ИИ в правовой сфере.
Бывший адвокат Трампа Майкл Коэн признался в судебных документах, что ссылался на ложные случаи, сгенерированные искусственным интеллектом, об использовании Google Bard для проведения юридических исследований, ошибочно рассматривая его как «суперпоисковую систему». Коэн заявил, что он не намеренно вводил суд в заблуждение и недостаточно разбирался в юридических технологиях искусственного интеллекта. Подобные ложные цитаты, сгенерированные ИИ, и раньше появлялись в судебных документах, вызывая некоторые споры.
Инцидент с Коэном еще раз напоминает нам, что при применении технологии ИИ в юридической сфере нам необходимо тщательно оценивать ее надежность и точность, а также усиливать этику и надзор за инструментами ИИ. Опора на технологию искусственного интеллекта должна основываться на полном понимании ее ограничений, чтобы избежать серьезных последствий, вызванных неправильным использованием. В будущем важной темой станет то, как лучше использовать ИИ для помощи юридическим исследованиям, избегая при этом потенциальных рисков.