Stanford Internet Observatory가 발표한 충격적인 연구에 따르면 인기 있는 AI 이미지 생성기 뒤에 있는 데이터베이스에 아동 성적 학대 이미지가 대량으로 캐시되어 있는 것으로 나타났습니다. 이번 발견은 광범위한 우려를 불러일으켰고 인공지능 기술의 잠재적인 윤리적 위험을 부각시켰습니다. 이 연구는 일부 대형 이미지 데이터베이스 운영자가 이미 접근을 제한하는 조치를 취했지만 어린이를 보호하고 AI 기술의 오용을 방지하기 위해 이 심각한 문제를 해결하려면 여전히 보다 적극적인 조치가 필요하다고 지적합니다.
Stanford Internet Observatory의 새로운 연구에 따르면 인기 있는 인공 지능 이미지 생성기의 기본 데이터베이스에는 수천 장의 아동 성적 학대 이미지가 포함되어 있는 것으로 나타났습니다. 가장 크고 가장 일반적으로 사용되는 일부 이미지 데이터베이스의 운영자는 이에 대한 액세스를 폐쇄했습니다. 이는 유해한 출력을 생성하고 실제 피해자에 대한 사전 학대를 악화시키는 AI 도구의 능력에 영향을 미칠 수 있습니다. 스탠포드 인터넷 관측소(Stanford Internet Observatory)는 이 문제를 해결하기 위해 보다 급진적인 조치를 요구하고 있습니다.
이번 연구 결과는 걱정스러우며 인공지능 개발에서 데이터 보안과 윤리를 보장하는 것이 얼마나 중요한지 강조하고 있습니다. 앞으로는 인공지능 기술의 건전한 발전과 안전한 적용을 보장하고 불법적이고 유해한 목적으로 사용되는 것을 방지하기 위해 AI 훈련 데이터에 대한 감독을 강화하고 유해 콘텐츠를 식별하고 필터링하는 보다 효과적인 기술적 수단을 개발해야 합니다.