Meta недавно объявила, что откроет серию моделей искусственного интеллекта Llama правительственным учреждениям США и связанным с ними подрядчикам для приложений национальной безопасности. Этот шаг был призван ответить на опасения, что «открытый» искусственный интеллект может быть использован иностранными противниками, и продемонстрировать поддержку Меты национальной безопасности. Редактор Downcodes предоставит подробную интерпретацию этого инцидента, проанализировав его мотивы, потенциальное воздействие и последующую дискуссию о безопасности искусственного интеллекта.
Корпорация Meta недавно объявила, что откроет серию моделей искусственного интеллекта Llama правительственным учреждениям США и связанным с ними подрядчикам для поддержки приложений национальной безопасности.
Этот шаг направлен на то, чтобы развеять мнение о том, что «открытый» ИИ может расширить возможности иностранных противников. «Мы рады подтвердить, что Llama будет доступна правительственным учреждениям США, в том числе тем, которые занимаются программами обороны и национальной безопасности, а также партнерам из частного сектора, поддерживающим эти усилия», — сообщила Мета в своем блоге.
Для продвижения этого проекта Meta установила партнерские отношения с рядом известных компаний, включая Accenture, Amazon Web Services, Andiel, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI и Snowflake. . Эти компании помогут применить модель «Ламы» в различных миссиях национальной безопасности.
Например, Oracle использует Llama для обработки документации по техническому обслуживанию самолетов, а Scale AI настраивает Llama для конкретных задач национальной безопасности. Lockheed Martin планирует предоставить Llama своим оборонным заказчикам, чтобы помочь им генерировать компьютерный код и так далее.
В целом политика Meta запрещает разработчикам использовать Llama для военных, военных или шпионских проектов. Однако в данном случае Meta решила сделать исключение и разрешить агентствам и подрядчикам, связанным с правительством США, использовать Llama в дополнение к аналогичным агентствам в Великобритании, Канаде, Австралии и Новой Зеландии.
Стоит отметить, что недавно появились сообщения о том, что некоторые исследователи, связанные с Народно-освободительной армией Китая, использовали старую версию модели Llama (Llama2) для разработки военного чат-бота, предназначенного для сбора и обработки разведывательной информации для принятия оперативных решений. изготовление информации. Мета ответила, что использование модели было «несанкционированным» и нарушило политику приемлемого использования компании. Однако этот инцидент еще больше спровоцировал широкую дискуссию о плюсах и минусах открытого искусственного интеллекта.
С применением искусственного интеллекта в военной разведке, наблюдении и рекогносцировке постепенно стали проявляться соответствующие риски безопасности. Исследование AI Now Institute показывает, что существующие системы искусственного интеллекта полагаются на персональные данные, которые злоумышленники могут извлечь и использовать в качестве оружия. В то же время системы искусственного интеллекта также имеют такие проблемы, как предвзятость и иллюзии, и эффективного решения в настоящее время не существует. Исследователи рекомендуют разрабатывать специализированные системы искусственного интеллекта, изолированные от «коммерческих» моделей.
Хотя Мета утверждает, что открытый ИИ может ускорить оборонные исследования и продвигать интересы экономики и безопасности США, американские военные по-прежнему осторожно относятся к внедрению этой технологии. Пока что только армия развернула генеративный искусственный интеллект.
Решение Меты вызвало широкие дискуссии по вопросам этики и безопасности применения искусственного интеллекта в оборонной сфере, и его долгосрочное влияние еще предстоит увидеть. Редактор Downcodes продолжит уделять внимание последним событиям в этой области и предоставлять читателям более глубокий анализ и отчеты.