JFrog 보안팀은 최근 Hugging Face 플랫폼에 악성 AI ML 모델이 최소 100개 이상 있다는 보고서를 발표했습니다. 이러한 악성 모델에 숨겨진 위험은 과소평가될 수 없습니다. 일부 모델은 피해자의 컴퓨터에서 코드를 실행하고 지속적인 백도어를 설정하여 사용자 데이터 보안에 심각한 위협을 가할 수도 있습니다. 연구원들은 "baller423"이라는 모델과 같이 PyTorch 및 Tensorflow Keras 프레임워크를 사용하여 구축된 악성 모델이 원격 제어를 위해 대상 호스트에 역방향 셸을 설정할 수 있음을 발견했습니다. 일부 악성 모델은 보안 연구 목적으로 취약점을 발견하고 포상금을 얻을 목적으로 업로드될 수 있지만 이로 인해 잠재적인 피해가 줄어들지는 않습니다.
JFrog 보안팀은 Hugging Face 플랫폼에서 최소 100개의 악성 AI ML 모델을 발견했습니다. 일부 모델은 피해자 시스템에서 코드를 실행하여 지속적인 백도어를 제공할 수 있습니다. 보안 연구원들은 플랫폼에 악성 기능을 가진 PyTorch 및 Tensorflow Keras 모델이 있음을 발견했습니다. 예를 들어 사용자가 업로드한 baller423 모델은 지정된 호스트에 역방향 셸을 설정할 수 있습니다. 일부 악성 모델은 취약점을 발견하고 포상금을 얻기 위한 보안 연구 목적으로 업로드될 수 있습니다.Hugging Face 플랫폼은 이러한 보안 위험을 효과적으로 방지하기 위해 업로드된 모델에 대한 검토 메커니즘을 강화해야 합니다. 또한 사용자는 보안 인식을 높이고 악의적인 공격을 피하기 위해 주의 깊게 알 수 없는 소스의 AI 모델을 사용해야 합니다. 이번 사건은 인공지능 기술의 발전으로 인해 보안 문제가 더욱 부각되고 있으며, 업계가 협력하여 보다 안전하고 신뢰할 수 있는 AI 생태계 환경을 구축해야 함을 다시 한번 상기시켜 줍니다.