Meta는 최근 국가 보안 애플리케이션을 위해 미국 정부 기관 및 관련 계약업체에 Llama 시리즈 인공 지능 모델을 공개할 것이라고 발표했습니다. 이러한 움직임은 "개방형" 인공 지능이 외국의 적들에 의해 악용될 수 있다는 우려에 대응하고 국가 안보에 대한 Meta의 지지를 보여주기 위한 것이었습니다. Downcodes의 편집자는 이 사건에 대한 자세한 해석을 제공하고 사건의 동기, 잠재적 영향 및 인공 지능의 안전성에 대한 토론을 분석합니다.
Meta Corporation은 최근 국가 보안 애플리케이션을 지원하기 위해 미국 정부 기관 및 관련 계약업체에 인공 지능 모델 Llama 시리즈를 공개할 것이라고 발표했습니다.
이러한 움직임은 자사의 "개방형" AI가 외국의 적에게 힘을 실어줄 수 있다는 인식을 불식시키기 위한 것입니다. Meta는 블로그 게시물을 통해 "국방 및 국가 안보 프로그램에 중점을 두는 기관을 포함하여 미국 정부 기관과 이러한 노력을 지원하는 민간 부문 파트너가 Llama를 사용할 수 있다는 사실을 확인하게 되어 기쁘게 생각합니다"라고 밝혔습니다.
이 프로젝트를 홍보하기 위해 Meta는 Accenture, Amazon Web Services, Andiel, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI 및 Snowflake를 포함한 여러 유명 회사와 파트너십을 맺었습니다. . 이들 회사는 Llama 모델을 다양한 국가 안보 임무에 적용하는 데 도움을 줄 것입니다.
예를 들어 Oracle은 항공기 유지 관리 문서를 처리하기 위해 Llama를 사용하고 있으며 Scale AI는 특정 국가 보안 작업을 위해 Llama를 미세 조정하고 있습니다. 록히드 마틴은 국방 고객에게 Llama를 제공하여 컴퓨터 코드 등을 생성할 계획입니다.
일반적으로 Meta의 정책은 개발자가 군사, 전쟁 또는 간첩 관련 프로젝트에 Llama를 사용하는 것을 금지합니다. 하지만 이번 경우 메타는 예외를 두어 영국, 캐나다, 호주, 뉴질랜드의 유사 기관 외에 미국 정부와 관련된 기관 및 계약업체도 라마를 사용할 수 있도록 허용하기로 결정했습니다.
최근 중국 인민 해방군과 관련된 일부 연구원들이 작전 결정을 제공하기 위해 정보를 수집하고 처리하도록 설계된 군사 중심 챗봇을 개발하기 위해 이전 버전의 Llama 모델(Llama2)을 사용했다는 보고가 있다는 점은 주목할 가치가 있습니다. 정보를 만들고 있습니다. 메타는 해당 모델의 사용이 "무단"이며 회사의 허용 가능한 사용 정책을 위반했다고 응답했습니다. 그러나 이 사건은 개방형 인공지능의 장점과 단점에 대한 광범위한 논의를 더욱 촉발시켰습니다.
군사 정보, 감시, 정찰 분야에 인공지능이 적용되면서 관련 보안 위험이 점차 표면화되고 있습니다. AI Now Institute의 연구에 따르면 기존 인공 지능 시스템은 적에 의해 추출되고 무기화될 수 있는 개인 데이터에 의존하는 것으로 나타났습니다. 동시에, 인공지능 시스템 역시 편견, 환상 등의 문제를 안고 있으며, 현재로서는 효과적인 해결책이 없습니다. 연구원들은 "상업용" 모델과 분리된 전용 AI 시스템을 개발할 것을 권장합니다.
메타는 개방형 AI가 국방 연구를 가속화하고 미국의 경제 및 안보 이익을 증진할 수 있다고 주장하지만, 미군은 여전히 이 기술 채택에 대해 신중한 반응을 보이고 있습니다. 지금까지는 육군만이 생성 인공 지능을 배치했습니다.
Meta의 움직임은 국방 분야에서 인공 지능 응용 프로그램의 윤리 및 안전 문제에 대한 광범위한 논의를 촉발시켰으며, 그 장기적인 영향은 아직 밝혀지지 않았습니다. Downcodes의 편집자는 이 분야의 최신 개발에 계속해서 주의를 기울이고 독자들에게 더욱 심층적인 분석과 보고서를 제공할 것입니다.