Министерство обороны США активно изучает возможности применения искусственного интеллекта в военной сфере и сотрудничает с ведущими компаниями в области искусственного интеллекта, такими как OpenAI и Anthropic. Это сотрудничество направлено на повышение эффективности Министерства обороны при строгом соблюдении принципа не использования технологий искусственного интеллекта для создания летального оружия. В статье исследуется роль ИИ в принятии военных решений, а также этические разногласия по поводу полномочий ИИ принимать решения по автономному оружию, а также демонстрируется осторожное отношение Пентагона и строгий надзор за применением технологий ИИ.
Поскольку технологии искусственного интеллекта быстро развиваются, ведущие разработчики ИИ, такие как OpenAI и Anthropic, усердно работают над сотрудничеством с военными США, стремясь повысить эффективность Пентагона, одновременно гарантируя, что их технология ИИ не будет использоваться для создания смертоносного оружия. Доктор Радха Пламб, директор Пентагона по цифровым технологиям и искусственному интеллекту, заявила в интервью TechCrunch, что искусственный интеллект в настоящее время не используется в оружии, но он дает Министерству обороны значительные преимущества в идентификации, отслеживании и оценке угроз.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
Доктор Пламб упомянул, что Пентагон ускоряет выполнение «цепочки уничтожения» — процесса, который включает выявление, отслеживание и нейтрализацию угроз с использованием сложных датчиков, платформ и систем вооружения. Генеративный ИИ показывает свой потенциал на этапах планирования и стратегии цепочки убийств. Она отметила, что ИИ может помочь командирам быстро и эффективно реагировать на угрозы. В последние годы Пентагон все больше сближается с разработчиками ИИ. В 2024 году такие компании, как OpenAI, Anthropic и Meta, смягчили свою политику использования, чтобы позволить разведывательным и оборонным ведомствам США использовать свои системы искусственного интеллекта, но по-прежнему запрещали использование этих технологий искусственного интеллекта в целях, причиняющих вред людям. Этот сдвиг привел к быстрому расширению сотрудничества между компаниями, занимающимися искусственным интеллектом, и оборонными подрядчиками. Например, в ноябре Meta заключила партнерское соглашение с такими компаниями, как Lockheed Martin и Booz Allen, чтобы применить свою модель искусственного интеллекта Llama в оборонном секторе. Anthropic достигла аналогичного сотрудничества с Palantir. Хотя конкретные технические детали этого сотрудничества неясны, доктор Пламб сказал, что применение ИИ на этапе планирования может противоречить политике использования нескольких ведущих разработчиков. В отрасли ведется горячая дискуссия о том, должно ли ИИ-оружие иметь возможность принимать решения о жизни и смерти. Генеральный директор Anduril Палмер Лаки отметил, что американские военные имеют долгую историю закупок автономных систем вооружения. Однако доктор Пламб опроверг это, подчеркнув, что в любом случае кто-то должен участвовать в принятии решения о применении силы. Она отметила, что идея автоматизированных систем, самостоятельно принимающих решения о жизни и смерти, слишком бинарна, а реальность гораздо сложнее. Система искусственного интеллекта Пентагона представляет собой сотрудничество между людьми и машинами, при этом старшие руководители участвуют в процессе принятия решений. Основные моменты: ИИ дает Пентагону значительные преимущества в выявлении и оценке угроз, способствуя более эффективному принятию военных решений. Разработчики ИИ все более тесно сотрудничают с Пентагоном, но всегда настаивали на том, чтобы технология ИИ не использовалась для нанесения вреда людям. Продолжаются дискуссии о том, должно ли ИИ-оружие обладать способностью принимать решения о жизни и смерти, при этом Пентагон подчеркивает, что в этом всегда участвуют люди.В целом, ИИ имеет широкие перспективы применения в военной сфере, однако к вопросам этики и безопасности тоже следует относиться с осторожностью. Как избежать злоупотребления технологиями искусственного интеллекта, обеспечивая при этом национальную безопасность, станет важным вопросом, который потребует постоянного внимания и решения в будущем.