Недавно в федеральном иске Миннесоты возник громкий спор по поводу использования дипфейков для влияния на выборы. В доказательствах, представленных генеральным прокурором штата, некоторые ссылки на ключевые исследования предположительно были созданы искусственным интеллектом, что вызвало широкую дискуссию о применении искусственного интеллекта в правовой сфере, а также важные вопросы о том, как обеспечить точность и надежность. информации. Редактор Downcodes проведет подробный анализ этого инцидента.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
По данным издания Minnesota Reformer, генеральный прокурор штата Кит Эллисон попросил Джеффа Хэнкока, директора-основателя Стэнфордской лаборатории социальных сетей, предоставить соответствующие доказательства. Однако некоторые исследования, упомянутые в показаниях Хэнкока, не имеют существенных доказательств и показывают возможные «галлюцинации» ИИ.
В письменных показаниях Хэнкока цитируется исследование 2023 года, опубликованное в Журнале информационных технологий и политики, под названием «Влияние дипфейковых видео на политические взгляды и поведение».
Однако никаких записей об исследовании не было найдено в журнале или какой-либо другой публикации, говорится в отчетах. Кроме того, еще одно исследование, упомянутое в письменных показаниях, под названием «Дипфейки и иллюзия подлинности: когнитивные процессы, стоящие за принятием дезинформации», также не имеет эмпирической основы.
В ответ юристы представителя Миннесоты Мэри Фрэнсон и консервативный YouTube-блогер Кристофер Холс заявили в иске: «Эти цитаты явно имеют эффект «иллюзионных» функций искусственного интеллекта (ИИ), подразумевая, что по крайней мере часть контента создается крупными языковые модели, такие как ChatGPT». Они также отметили, что такая ситуация ставит под сомнение достоверность всех показаний, особенно потому, что многим из их аргументов не хватает методологии и аналитической логики.
Хэнкок не отреагировал на инцидент. Этот инцидент вызвал дискуссию о применении искусственного интеллекта в правовой сфере, особенно когда речь идет об общественных интересах и вопросах выборов. Как обеспечить точность и достоверность информации, стало важной темой.
Этот инцидент не только привлекает внимание к влиянию технологии дипфейков, но и дает юридическому сообществу возможность по-новому взглянуть на доказательства, связанные с искусственным интеллектом. Как эффективно идентифицировать и проверять источники информации стало важной задачей, которую необходимо решать в юридической практике.
Этот инцидент выявил риски применения технологии ИИ в правовом поле, а также предупредил нас о том, что нам нужно быть осторожными в отношении контента, созданного ИИ, особенно при применении доказательных материалов, и что для обеспечения подлинности необходимы строгие проверки и проверки. и достоверность информации. Это имеет решающее значение для поддержания справедливости и авторитета закона.