С быстрым развитием технологий искусственного интеллекта, особенно больших языковых моделей (LLM), проблемы их безопасности становятся все более заметными. Однако существующие законы и постановления, особенно Закон о компьютерном мошенничестве и злоупотреблениях (CFAA) в США, недостаточны для борьбы с юридическими рисками в исследованиях безопасности ИИ. Ученые Гарвардского университета недавно отметили на конференции Black Hat Conference, что CFAA не смог эффективно защитить исследователей в области безопасности ИИ и вместо этого может подвергнуть их юридическим рискам, что вызвало широкое внимание и дискуссию в отрасли по поводу правовой базы для исследований в области безопасности ИИ. В этой статье будет представлен более глубокий анализ этого.
Сегодня, с быстрым развитием современных технологий, искусственный интеллект, особенно большие языковые модели (LLM), постепенно становится в центре внимания. Однако законы США о кибербезопасности, похоже, не успевают за этой быстро меняющейся сферой. Недавно группа ученых из Гарвардского университета отметила на конференции Black Hat Conference, что действующий Закон о компьютерном мошенничестве и злоупотреблениях (CFAA) не защищает эффективно тех, кто занимается исследованиями в области безопасности ИИ, а вместо этого может подвергать их юридическим рискам.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
В число этих ученых входят Кендра Альберт, Рам Шанкар Сива Кумар и Джонатон Пенни из Гарвардской школы права. Альберт упомянул в интервью, что существующие законы не дают четкого определения такого поведения, как «атаки с использованием подсказок», из-за чего исследователям трудно судить, нарушают ли их действия закон. Она сказала, что, хотя некоторые действия, такие как доступ к моделям без разрешения, явно незаконны, вопрос также в том, используют ли исследователи, получившие доступ к системам ИИ, эти модели непреднамеренно.
В 2021 году дело Ван Бюрен против Соединенных Штатов, рассмотренное Верховным судом США, изменило интерпретацию CFAA, указав, что закон применяется только к тем, кто имеет несанкционированный доступ к информации внутри компьютера. Этот вердикт имеет смысл в традиционных компьютерных системах, но не соответствует требованиям, когда речь идет о больших языковых моделях. Альберт отметил, что использование естественного языка для взаимодействия с ИИ усложняет это юридическое определение, и во многих случаях реакция ИИ не эквивалентна получению информации из базы данных.
В то же время Сивакумар также упомянул, что юридическим дискуссиям об исследованиях безопасности ИИ уделяется гораздо меньше внимания, чем таким вопросам, как авторское право, и он сам не уверен, будет ли он защищен при проведении определенных тестов атак. Альберт заявил, что, учитывая неопределенность действующего законодательства, этот вопрос может быть прояснен через судебное разбирательство в будущем, но в настоящее время многие "благонамеренные" исследователи чувствуют себя в растерянности.
В этой правовой среде Альберт советует исследователям безопасности обращаться за юридической поддержкой, чтобы гарантировать, что их действия не нарушают закон. Она также обеспокоена тем, что расплывчатые правовые положения могут отпугнуть потенциальных исследователей и позволить злоумышленникам уйти от наказания, создавая еще большую угрозу безопасности.
Выделять:
Закон США о компьютерном мошенничестве и злоупотреблениях обеспечивает недостаточную защиту для исследователей в области безопасности ИИ и может столкнуться с юридическими рисками.
В нынешних законах отсутствуют четкие определения таких действий, как атаки с использованием подсказок, что затрудняет исследователям определение законности.
Ученые полагают, что в будущем могут потребоваться судебные разбирательства для разъяснения соответствующих правовых положений и защиты добросовестных исследователей.
В целом правовые дилеммы в области исследований безопасности ИИ требуют внимания. Учитывая характеристики больших языковых моделей, необходимо сформулировать более четкие и целенаправленные законы и правила для защиты прав и интересов законных исследователей, содействия здоровому развитию исследований в области безопасности ИИ и эффективной борьбы со злонамеренными атаками. Только таким образом мы сможем обеспечить здоровое развитие технологий искусственного интеллекта и принести пользу всему человечеству.