Недавно в федеральном иске в Миннесоте возник громкий спор по поводу закона об «использовании технологии дипфейков для влияния на выборы»: содержание письменных показаний в поддержку закона было подвергнуто сомнению как текст, сгенерированный искусственным интеллектом. Суть этого инцидента заключается в том, что в доказательствах, представленных генеральным прокурором, многие исследовательские работы якобы отсутствовали, что вызвало обеспокоенность по поводу применения технологии искусственного интеллекта в правовом поле и серьезные проблемы с проверкой подлинности. информации. Этот инцидент не только связан с справедливостью судебного разбирательства, но и подчеркивает важность сохранения точности информации в эпоху искусственного интеллекта.
Недавно новый спор возник в рамках продолжающегося федерального иска в Миннесоте относительно использования дипфейков для влияния на выборы. Аффидевиты в поддержку закона могут содержать текст, сгенерированный искусственным интеллектом, заявили адвокаты истцов в последней исковой документации.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
По данным издания Minnesota Reformer, генеральный прокурор штата Кит Эллисон попросил Джеффа Хэнкока, директора-основателя Стэнфордской лаборатории социальных сетей, предоставить соответствующие доказательства. Однако некоторые исследования, упомянутые в показаниях Хэнкока, не имеют существенных доказательств и показывают возможные «галлюцинации» ИИ.
В письменных показаниях Хэнкока цитируется исследование 2023 года, опубликованное в Журнале информационных технологий и политики, под названием «Влияние дипфейковых видео на политические взгляды и поведение».
Однако никаких записей об исследовании не было найдено в журнале или какой-либо другой публикации, говорится в отчетах. Кроме того, еще одно исследование, упомянутое в письменных показаниях, под названием «Дипфейки и иллюзия подлинности: когнитивные процессы, стоящие за принятием дезинформации», также не имеет эмпирической основы.
В ответ юристы представителя Миннесоты Мэри Фрэнсон и консервативный YouTube-блогер Кристофер Холс заявили в иске: «Эти цитаты явно имеют эффект «иллюзионных» функций искусственного интеллекта (ИИ), подразумевая, что по крайней мере часть контента создается крупными языковые модели, такие как ChatGPT». Они также отметили, что такая ситуация ставит под сомнение достоверность всех показаний, особенно потому, что многим из их аргументов не хватает методологии и аналитической логики.
Хэнкок не отреагировал на инцидент. Этот инцидент вызвал дискуссию о применении искусственного интеллекта в правовой сфере, особенно когда речь идет об общественных интересах и вопросах выборов. Как обеспечить точность и достоверность информации, стало важной темой.
Этот инцидент не только привлекает внимание к влиянию технологии дипфейков, но и дает юридическому сообществу возможность по-новому взглянуть на доказательства, связанные с искусственным интеллектом. Как эффективно идентифицировать и проверять источники информации стало важной задачей, которую необходимо решать в юридической практике.
Выделять:
Содержание письменных показаний по Закону Миннесоты о дипфейках было подвергнуто сомнению как текст, сгенерированный искусственным интеллектом.
Команда юристов отметила, что цитируемое исследование не существовало, и заподозрила, что это была «галлюцинация» ИИ.
Этот инцидент вызвал широкую дискуссию по поводу использования искусственного интеллекта в юридических документах, уделив особое внимание точности информации.
Этот инцидент вызвал тревогу среди юридического сообщества, напомнив нам, что нам необходимо пересмотреть применение технологии искусственного интеллекта в юридических доказательствах и создать более полный механизм проверки, чтобы обеспечить справедливость и надежность юридических процедур. В будущем важной темой станет то, как эффективно выявлять и предотвращать ложную информацию, генерируемую ИИ.