최근 AI 모델 보안 문제가 주목을 받고 있다. 노스캐롤라이나 주립대학교(North Carolina State University) 연구진은 99% 이상의 정확도로 컴퓨터에서 전자기 신호를 캡처하여 AI 모델을 추출하는 방법을 개발하면서 획기적인 발전을 이루었습니다. 이번 발견은 AI 모델의 지적 재산권 보호에 대한 업계의 우려를 불러일으켰으며, 특히 OpenAI, Anthropic 및 Google과 같은 회사가 독점 모델 개발에 막대한 투자를 한 상황에서 더욱 그렇습니다. 이 기사에서는 이 신기술의 잠재적 영향과 기업이 증가하는 AI 모델 도난 위험에 대응할 수 있는 방법을 살펴보고 관련 보안 조치와 향후 개발 동향을 분석합니다.
최근 노스캐롤라이나 주립대학교 연구진은 컴퓨터에서 방출되는 전자기 신호를 99% 이상의 정확도로 포착해 인공지능(AI) 모델을 추출하는 새로운 방법을 제안했다. 특히 OpenAI, Anthropic 및 Google과 같은 회사가 독점 모델에 막대한 투자를 하고 있기 때문에 이번 발견은 상업용 AI 개발에 도전이 될 수 있습니다. 그러나 전문가들은 이 기술의 실제 실제 영향과 방어 조치가 여전히 불분명하다고 지적합니다.
CUDO 컴퓨트의 최고마케팅책임자 라스 나이만(Lars Nyman)은 AI 도난은 단순히 모델 자체의 손실이 아니라 수년간의 연구개발 결과를 활용하는 경쟁사, 지적재산권을 조사하는 규제기관 등 일련의 연쇄반응을 촉발할 수도 있다고 말했다. 재산권 문제, 심지어 AI의 "고유성"이 고유하지 않다는 사실을 발견한 고객의 소송까지 포함합니다. 이러한 상황으로 인해 업계에서는 안전한 회사와 무책임한 회사를 구별하기 위해 SOC2 또는 ISO 인증과 같은 표준화된 감사를 추진하게 될 수 있습니다.
최근 몇 년 동안 AI 모델에 대한 해커 공격 위협이 점점 더 심각해지고 있습니다. 비즈니스 세계의 AI 의존도는 이 문제를 더욱 심각하게 만듭니다. 최근 보고서에 따르면 AI 도구의 주요 저장소인 Hugging Face에 수천 개의 악성 파일이 업로드되어 소매, 물류, 금융과 같은 산업에서 사용되는 모델을 심각하게 손상시키는 것으로 나타났습니다. 국가 보안 전문가들은 OpenAI 보안 결함에서 알 수 있듯이 취약한 보안 조치로 인해 독점 시스템이 도난 위험에 빠질 수 있다고 경고했습니다. 도난당한 AI 모델은 리버스 엔지니어링되거나 판매될 수 있으며, 이는 기업의 투자를 약화시키고 신뢰를 약화시켜 경쟁업체가 빠르게 따라잡을 수 있게 합니다.
노스캐롤라이나주립대학교 연구팀은 구글의 엣지 텐서 처리 장치(TPU) 근처에 프로브를 배치하고 신호를 분석해 모델 구조에 대한 핵심 정보를 공개했다. 이 공격 방식은 시스템에 직접 접근할 필요가 없어 AI 지적재산권을 심각한 보안 위험에 노출시킨다. 연구 공동 저자이자 전기 및 컴퓨터 공학과 부교수인 Aydin Aysu는 AI 모델을 구축하는 데 비용이 많이 들고 컴퓨팅 리소스도 많이 필요하므로 모델 도난을 방지하는 것이 중요하다고 강조했습니다.
AI 기술이 널리 사용됨에 따라 기업은 AI 처리에 사용되는 일부 장비를 재검토해야 합니다. 기술 컨설턴트인 수리엘 아레야노(Suriel Arellano)는 기업들이 보다 중앙 집중화되고 안전한 컴퓨팅으로 전환하거나 도난에 덜 민감한 대체 기술을 고려할 수 있다고 믿습니다. 도난 위험이 존재하는 동안 AI는 사이버 보안도 강화하고, 자동화된 위협 탐지 및 데이터 분석을 통해 대응 효율성을 향상시키며, 잠재적인 위협을 식별하고 새로운 공격에 대응하는 방법을 배우는 데 도움을 줍니다.
가장 밝은 부분:
연구진은 99% 이상의 정확도로 전자기 신호를 포착해 AI 모델을 추출하는 방법을 시연했다.
AI 모델 도용으로 인해 경쟁업체가 회사의 수년간의 연구 개발 결과를 악용하여 비즈니스 보안에 영향을 미칠 수 있습니다.
기업은 점점 증가하는 해커 공격 위협에 대처하기 위해 AI 모델의 보안 보호를 강화해야 합니다.
전체적으로 AI 모델 보안은 기업의 초점이 되었습니다. 점점 복잡해지는 사이버 보안 위협에 직면한 기업은 AI 모델 보호를 강화하기 위한 조치를 적극적으로 취하고 지적 재산권과 상업적 이익을 보호하기 위해 보다 안전한 AI 기술을 모색해야 합니다.