최근 Reddit에 Claudia라는 가상 여성이 등장했습니다. 그녀는 AI 도구 Stable Diffusion에 의해 생성되었으며 그녀의 현실감은 충격적입니다. 많은 Reddit 사용자는 AI가 생성한 누드 사진에 대해 비용을 지불하기도 하여 광범위한 우려를 불러일으켰습니다. Downcodes의 편집자는 이번 사건의 전체 스토리는 물론, 현재 개발 상태와 그것이 반영하는 AI 기술의 잠재적 위험을 안내합니다.
Reddit 사용자들은 AI가 생성한 가짜 여성 누드 사진에 대해 비용을 지불한 것으로 알려졌습니다.
인공 지능 도구인 Stable Diffusion으로 만든 사진은 구분하기 어려울 정도로 사실적으로 보입니다. 해당 이미지는 몇 달 전 여러 Reddit 포럼에 처음 등장하여 많은 사용자의 관심과 댓글을 받았습니다.
Stable Diffusion으로 생성된 아름다운 사진
한 누리꾼은 클라우디아의 사진을 보고 "정말 아름답네요!"라고 댓글을 달기도 했습니다.
일부 사용자들은 이 사진의 진위 여부를 의심하기 시작했고 너무 가공된 것처럼 보인다고 생각하기 시작했지만 여전히 이 "아름다움"의 매력에 집착하는 사람들이 많았습니다.
정보에 정통한 한 사용자는 댓글을 통해 모든 사람에게 다음과 같이 상기시켰습니다. "당신의 환상을 망쳐야 합니다. 이것은 실제로 AI가 만든 것입니다. AI 이미지 모델을 가지고 놀았다면 한 눈에 볼 수 있을 것입니다."
Claudia의 제작자에 따르면 그들은 누드 사진을 판매하여 약 100달러를 벌었습니다. 사실 이 계정의 원래 목적은 AI 이미지가 사용자를 성공적으로 속일 수 있는지 테스트하는 것이었습니다.
이들은 "가상앵커 개념이라고 생각하시면 된다. 우리만의 캐릭터를 만들어 전혀 다른 아이덴티티로 퍼포먼스를 펼친다. 이렇게 큰 관심을 받을 줄은 몰랐다"고 말했다.
AI 연구원들은 클라우디아의 사진에는 배경의 이상한 디테일이나 손의 흠집 등 AI가 생성한 명백한 특징이 있다고 지적했습니다. 이러한 이미지의 출현은 완전히 새롭고 사실적인 사람 이미지를 생성할 수 있는 인공지능 확산 모델링 기술의 최신 발전을 의미합니다.
Claudia는 r/amIhot 하위 레딧에 처음 등장했으며 나중에 유사한 사건이 발생하는 것을 방지하기 위해 하위 레딧에서는 사용자에게 신원 확인을 위해 10~15초의 비디오를 제공하도록 요구하기 시작했습니다.
가장 밝은 부분:
?AI 기술로 인해 가상 모델 '클라우디아'가 Reddit에서 화제가 되었습니다.
?제작자는 클라우디아의 누드 사진을 판매하여 약 100달러를 벌었습니다.
Reddit subreddit r/amIhot은 오해의 소지가 있는 사용자를 방지하기 위해 인증 조치를 도입했습니다.
클라우디아 사건은 AI 이미지 생성 기술의 발전을 보여줬을 뿐만 아니라 잠재적인 윤리적, 안전 문제도 드러냈다. AI가 생성한 이미지를 식별하는 방법과 소셜 미디어에서 AI 기술의 적용을 규제하는 방법은 우리가 고려할 가치가 있는 문제입니다. 이번 사건은 우리가 기술 진보가 가져다준 편리함을 즐기면서도, AI 기술 발전을 이성적으로 경계하고 바라볼 필요가 있음을 일깨워준다.