Downcodes의 편집자는 Microsoft가 최근 생성 AI의 악의적인 사용을 조사하기 위한 백서를 발표했다는 사실을 알게 되었습니다. 보고서는 AI가 사기, 아동 성적 학대 자료 제작, 선거 조작, 비자발적 사생활 영상 제작 등 심각한 범죄 행위에 활용되고 있음을 밝히며, 이러한 문제가 기술적인 문제일 뿐만 아니라 사회에 큰 위협이 된다는 점을 강조했다. 마이크로소프트는 AI로 인한 위험에 공동으로 대처하기 위해 글로벌 협력을 촉구하고 있다.
마이크로소프트(MS)는 최근 사기, 아동 성적 학대 자료, 선거 조작, 합의되지 않은 비공개 이미지 등 생성 인공지능(AI)의 악의적 사용을 심층 분석한 백서를 발표했다. 회사는 이러한 문제가 기술적 과제일 뿐만 아니라 사회에 큰 위협이 된다는 점을 강조했다.
Microsoft 백서에 따르면 범죄자들은 점점 더 생성 AI의 힘을 활용하여 사악한 범죄를 저지르고 있습니다. 여기에는 사기를 위한 AI 생성 허위 정보 사용, 아동 성적 학대 자료 제작, 딥페이크 기술을 통한 선거 조작, 특히 여성을 대상으로 하는 합의되지 않은 은밀한 이미지 제작 등이 포함됩니다. 마이크로소프트의 대외 담당 부사장 휴 밀워드는 “AI의 오용은 실제 사람들에게 심각한 결과를 가져온다는 점을 결코 잊어서는 안 된다”고 말했다.
특히 영국 정책 입안자를 대상으로 한 이 백서는 위의 문제를 해결하기 위해 6가지 핵심 요소를 기반으로 하는 포괄적인 솔루션 세트를 제안합니다. 6가지 요소에는 강력한 보안 아키텍처, 영구 미디어 소스 및 워터마킹 도구, 대중을 보호하기 위한 현대화된 법률, 업계와 정부, 시민 사회 간의 강력한 협력, 서비스 오용 방지, 공교육이 포함됩니다.
영국 정책 입안자를 위한 특정 권장 사항에서 Microsoft는 AI 시스템 공급자가 사용자가 AI 시스템과 상호 작용할 때 AI에 의해 콘텐츠가 생성된다는 사실을 사용자에게 알려야 한다고 요구합니다. 또한 Microsoft는 합성 콘텐츠에 플래그를 지정하기 위해 고급 소스 태그 지정 도구를 구현할 것을 권장하며, 정부는 미디어 콘텐츠의 진위 여부를 확인하여 모범을 보여야 합니다. 마이크로소프트는 또한 선거의 무결성을 보호하기 위해 AI 도구를 통한 사기를 금지하는 새로운 법률이 필요하다고 강조했습니다. 동시에, 성적 딥페이크 제작을 범죄화하는 등 온라인 착취로부터 어린이와 여성을 보호하기 위한 법적 틀도 강화되어야 합니다.
마이크로소프트는 미디어가 AI에 의해 생성되었는지 여부를 나타내는 메타데이터 기술을 저장하는 것도 중요하다고 지적했다. 사람들이 이미지의 출처를 식별하는 데 도움을 주기 위해 Adobe와 같은 회사에서 유사한 프로젝트가 이미 진행 중입니다. 그러나 Microsoft는 콘텐츠 자격 증명과 같은 표준이 효과적이려면 정책 조치와 대중 인식이 필요하다고 믿습니다.
또한 Microsoft는 StopNCII.org와 같은 조직과 협력하여 악의적인 이미지를 감지하고 제거하는 도구를 개발하고 있습니다. 피해자는 Microsoft의 중앙 보고 포털을 통해 항소할 수 있습니다. 청소년의 경우 국립실종착취아동센터에서 제공하는 Take It Down 서비스를 통해 추가 지원이 제공됩니다. Millward는 "AI의 오용은 장기적인 문제가 될 가능성이 높으므로 이 문제를 해결하기 위해 노력을 배가하고 기술 회사, 자선 파트너, 시민 사회 및 정부와 창의적으로 협력해야 합니다. 우리 혼자서는 할 수 없습니다. "
이 Microsoft 백서는 생성적 AI의 악의적인 응용 프로그램을 처리하기 위한 귀중한 참고 자료를 제공하고 기술, 법적 및 사회적 협력의 중요성을 강조하며 향후 AI 거버넌스를 위한 중요한 방향을 제공합니다. 여러 당사자가 협력해야만 AI로 인한 위험에 효과적으로 대처하고 사회 보장과 안정을 보장할 수 있습니다.