인공지능 기술, 특히 LLM(Large Language Model)의 급속한 발전으로 인해 보안 문제가 점점 더 부각되고 있습니다. 그러나 기존 법률 및 규정, 특히 미국의 컴퓨터 사기 및 남용법(CFAA)은 AI 보안 연구에 따른 법적 위험을 다루기에는 미흡합니다. 최근 하버드 대학 학자들은 블랙햇 컨퍼런스에서 CFAA가 AI 보안 연구원을 효과적으로 보호하지 못하고 오히려 법적 위험에 노출될 수 있다는 점을 지적해 AI 보안 연구의 법적 프레임워크에 대한 업계의 광범위한 관심과 논의를 촉발했습니다. 이 기사에서는 이에 대한 심층 분석을 제공합니다.
오늘날 현대 기술의 급속한 발전과 함께 인공지능, 특히 LLM(Large Language Model)이 점차 주목받고 있습니다. 그러나 미국의 사이버 보안법은 이렇게 빠르게 변화하는 분야를 따라잡지 못하는 것으로 보입니다. 최근 하버드 대학교 학자 그룹은 블랙햇 컨퍼런스에서 현행 컴퓨터 사기 및 남용법(CFAA)이 AI 보안 연구에 종사하는 사람들을 효과적으로 보호하지 못하고 대신 법적 위험에 노출시킬 수 있다고 지적했습니다.
사진 출처 참고: 사진은 AI가 생성한 것이며, 사진 인증 서비스 제공업체 Midjourney가 제공한 것입니다.
이러한 학자로는 하버드 로스쿨의 Kendra Albert, Ram Shankar Siva Kumar 및 Jonathon Penney가 있습니다. Albert는 인터뷰에서 기존 법률이 "힌트 주입 공격"과 같은 행위를 명확하게 정의하지 않아 연구자가 자신의 행동이 법률을 위반하는지 판단하기 어렵다고 언급했습니다. 그녀는 허가 없이 모델에 접근하는 등의 일부 행위는 명백히 불법이지만, AI 시스템에 접근한 연구자들이 의도하지 않은 방식으로 해당 모델을 사용하고 있는지에 대한 의문도 제기된다.
2021년 미국 대법원의 Van Buren 대 미국 사건은 CFAA의 해석을 변경하여 해당 법률이 컴퓨터 내부 정보에 무단으로 액세스할 수 있는 사람에게만 적용된다고 규정했습니다. 이 평결은 전통적인 컴퓨터 시스템에서는 의미가 있지만 대규모 언어 모델의 경우에는 부족합니다. Albert는 AI와 상호 작용하기 위해 자연어를 사용하면 이러한 법적 정의가 더욱 복잡해지고, AI의 반응이 데이터베이스에서 정보를 검색하는 것과 동일하지 않은 경우가 많다고 지적했습니다.
동시에 Sivakumar는 AI 보안 연구에 대한 법적 논의가 저작권과 같은 문제보다 훨씬 덜 관심을 받았으며 특정 공격 테스트를 수행할 때 자신이 보호받을 수 있을지 확신할 수 없다고 언급했습니다. Albert는 기존 법률의 불확실성을 고려할 때 이 문제는 향후 법정 소송을 통해 명확해질 수 있지만 현재 많은 "선의의" 연구자들이 당혹감을 느끼고 있다고 말했습니다.
이러한 법적 환경에서 Albert는 보안 연구원에게 자신의 행동이 법을 위반하지 않도록 법적 지원을 구하라고 조언합니다. 그녀는 또한 모호한 법적 조항으로 인해 잠재적인 연구자들이 겁을 먹고 악의적인 공격자가 이를 피해갈 수 있어 더 큰 보안 위험이 발생할 수 있다고 우려합니다.
가장 밝은 부분:
미국 컴퓨터 사기 및 남용법은 AI 보안 연구자에 대한 보호가 충분하지 않으며 법적 위험에 직면할 수 있습니다.
현행법에는 팁 주입 공격과 같은 행위에 대한 명확한 정의가 부족하여 연구자가 합법성을 판단하기가 어렵습니다.
학자들은 관련 법률 조항을 명확히 하고 선의의 연구자를 보호하기 위해 향후 법원 절차가 필요할 수 있다고 믿습니다.
전체적으로 AI 보안 연구 분야의 법적 딜레마에 관심이 필요하다. 대규모 언어 모델의 특성을 고려하여, 합법적인 연구자의 권리와 이익을 보호하고, AI 보안 연구의 건전한 발전을 촉진하며, 악의적인 공격에 효과적으로 대처하기 위해 보다 명확하고 보다 표적화된 법률 및 규정을 제정해야 합니다. 그래야만 인공지능 기술의 건전한 발전을 보장하고 인류 전체에게 혜택을 줄 수 있습니다.