Meta недавно объявила, что откроет свою серию моделей искусственного интеллекта Llama Series для правительственных учреждений США и их подрядчиков для поддержки заявок на национальную безопасность. Этот шаг предназначен для реагирования на опасения по поводу его открытого ИИ, потенциально эксплуатируемого иностранными противниками, и продемонстрировать его технологический вклад в область национальной безопасности. Мета подчеркнула, что применение модели ламы будет подвержена строгим нормам и ограничениям, чтобы гарантировать, что она не используется для незаконных или вредных целей. В этой статье подробно рассмотрены фон переездов Meta, партнеров и дискуссий о безопасности открытого искусственного интеллекта, которые были запускаются.
Meta недавно объявила, что откроет свою серию моделей искусственного интеллекта Llama Series для правительственных учреждений США и связанных с ними подрядчиков для поддержки заявок на национальную безопасность.
Этот шаг направлен на то, чтобы устранить восприятие того, что внешний мир «открыт» для его ИИ может подпитывать иностранных соперников. «Мы рады подтвердить, что Llama предоставит правительственные учреждения США, в том числе те, которые были сосредоточены на обороне и национальной безопасности, а также партнерах частного сектора, поддерживающих эти усилия», - сказал Мета в посте в блоге.
Чтобы продвигать этот проект, Meta достигла сотрудничества с несколькими известными компаниями, включая Accenture, Amazon Web Services, Andyr, Boss Allen, Databricks, Deloitte, IBM, Ledos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI и Snowflake. Эти компании помогут применить модель LLAMA к различным задачам национальной безопасности.
Например, Oracle использует LLAMA для обработки документов по обслуживанию самолетов, в то время как масштаб AI отлично настраивает ламу для конкретных задач национальной безопасности. Lockheed Martin планирует предоставить Llama своим защитным клиентам, чтобы помочь им генерировать компьютерный код и т. Д.
Как правило, политика Meta запрещает разработчикам применять Llama к военным, военным или шпионским проектам. Однако в этом случае Meta решила сделать исключение, позволив ламе использовать агентства и подрядчики, связанные с правительством США, а также применимо к аналогичным агентствам в таких странах, как Соединенное Королевство, Канада, Австралия и Новая Зеландия.
Стоит отметить, что сообщалось, что некоторые исследователи, связанные с китайской народной Армией освободительной армии, использовали старую версию модели Llama (Llama2) для разработки военного чат-бота, предназначенного для сбора и обработки разведки и обеспечения принятия боевых решений. информация. Мета ответила, что использование модели было «несанкционировано» и нарушило приемлемое политику компании. Тем не менее, этот инцидент еще больше вызвал широкое обсуждение преимуществ и недостатков открытого ИИ.
С применением искусственного интеллекта в военной разведке, наблюдении и разведке, связанные с ним риски безопасности постепенно всплыли. Исследование, проведенное в Институте ИИ, теперь показывает, что существующие системы ИИ полагаются на личные данные, которые могут быть извлечены и вооружены противниками. В то же время системы искусственного интеллекта также имеют такие проблемы, как предвзятость и галлюцинация, и в настоящее время нет эффективного решения. Исследователи рекомендуют разработать выделенные системы ИИ, изолированные из «бизнес -модели».
Хотя Meta утверждает, что открытие ИИ может ускорить оборонные исследования и способствовать экономическим интересам США, военные США по -прежнему осторожны с принятием этой технологии, и до сих пор только армия развернула генеративный искусственный интеллект.
Ключевые моменты:
Мета открывает модель LLAMA для правительства США и оборонных подрядчиков для поддержки заявок на национальную безопасность.
Многие известные компании сотрудничали с Meta, чтобы совместно способствовать применению модели LLAMA в области обороны.
Риски безопасности открытого искусственного интеллекта в военных приложениях вызвали дискуссии, и исследователи призвали к разработке специализированных моделей.
Движение Meta достигло деликатного баланса между содействием технологическим развитием и национальной безопасности, но также подчеркивает этические проблемы и проблемы безопасности в применении технологий искусственного интеллекта, которые должны постоянно уделять внимание и осторожно отвечают. Будущее развитие открытого ИИ требует поиска наилучшего пути между технологическими инновациями и гарантией безопасности.