미국 국방부는 군사 분야에서 인공지능 활용을 적극적으로 모색하고 있으며 OpenAI, Anthropic 등 대표적인 AI 기업들과 협력하고 있다. 이번 협력은 치명적인 무기에 AI 기술을 사용하지 않는다는 원칙을 엄격히 지키면서 국방부의 효율성을 높이는 것을 목표로 한다. 이 기사는 군사 의사결정에서 AI의 역할과 AI의 자율무기 의사결정권을 둘러싼 윤리적 논란을 탐구하고, AI 기술 적용에 대한 미 국방부의 신중한 태도와 엄격한 감독을 보여준다.
인공지능 기술이 빠르게 발전함에 따라 OpenAI, Anthropic 등 선도적인 AI 개발자들은 미군과 협력하여 국방부의 효율성을 향상시키는 동시에 그들의 AI 기술이 치명적인 무기에 사용되지 않도록 노력하고 있습니다. 국방부의 최고 디지털 및 AI 책임자인 Radha Plumb 박사는 TechCrunch와의 인터뷰에서 AI가 현재 무기에 사용되지는 않지만 국방부에 위협 식별, 추적 및 평가에 상당한 이점을 제공한다고 말했습니다.
사진 출처 참고: 사진은 AI가 생성한 것이며, 사진 인증 서비스 제공업체 Midjourney가 제공한 것입니다.
Plumb 박사는 국방부가 복잡한 센서, 플랫폼 및 무기 시스템과 관련된 위협을 식별, 추적 및 무력화하는 프로세스인 "킬 체인"의 실행을 가속화하고 있다고 언급했습니다. 제너레이티브 AI는 킬 체인의 계획 및 전략 단계에서 잠재력을 보여줍니다. 그녀는 AI가 위협에 직면했을 때 지휘관이 신속하고 효과적으로 대응하는 데 도움이 될 수 있다고 언급했습니다. 최근 몇 년 동안 미 국방부는 AI 개발자들과 점점 더 가까워졌습니다. 2024년 OpenAI, Anthropic, Meta 등의 기업은 미국 정보 및 국방 기관이 AI 시스템을 사용할 수 있도록 사용 정책을 완화했지만 여전히 이러한 AI 기술을 인간에게 해를 끼치는 목적으로 사용하는 것을 금지했습니다. 이러한 변화로 인해 AI 기업과 방산업체 간의 협력이 급속히 확대되었습니다. 예를 들어 Meta는 지난 11월 Lockheed Martin, Booz Allen 등의 회사와 제휴하여 Llama AI 모델을 국방 부문에 적용했습니다. Anthropic은 Palantir와 유사한 협력 관계를 맺었습니다. 이러한 협업의 구체적인 기술적 세부 사항은 불분명하지만 Plumb 박사는 계획 단계에서 AI를 적용하는 것이 여러 주요 개발자의 사용 정책과 충돌할 수 있다고 말했습니다. AI 무기가 생사를 결정하는 능력을 갖춰야 하는지에 대해 업계에서는 뜨거운 논의가 있어왔다. Anduril CEO Palmer Luckey는 미군이 자율 무기 시스템을 구매한 오랜 역사를 가지고 있다고 언급했습니다. 그러나 플럼 박사는 이를 일축하며 어떤 경우에도 무력 사용 결정에는 누군가가 관여해야 한다고 강조했습니다. 그녀는 자동화 시스템이 독립적으로 생사 결정을 내리는 아이디어는 너무 이분법적이며 현실은 훨씬 더 복잡하다고 지적했습니다. 국방부의 AI 시스템은 의사결정 과정에 고위 지도자가 참여하는 인간과 기계 간의 협업입니다. 하이라이트: AI는 국방부에 위협 식별 및 평가에 있어 상당한 이점을 제공하여 보다 효율적인 군사 의사결정을 추진하고 있습니다. AI 개발자들은 미 국방부와 점점 더 긴밀하게 협력하고 있지만 AI 기술이 인간에게 해를 끼치는 데 사용되어서는 안 된다고 항상 주장해 왔습니다. AI 무기에 생사결정 능력이 있어야 하는지에 대한 논의가 계속되고 있으며, 미 국방부는 인간이 항상 관여한다는 점을 강조하고 있습니다.전체적으로 AI는 군사 분야에 적용할 수 있는 가능성이 넓지만 윤리적, 안전 문제도 주의 깊게 다뤄야 합니다. 국가 안보를 보장하면서 AI 기술 남용을 어떻게 방지할 것인가는 앞으로도 지속적인 관심과 해결이 필요한 중요한 문제가 될 것이다.