최근 다운코드 편집자는 OpenAI의 새로운 텍스트-비디오 AI 모델인 Sora 테스트에 참여한 아티스트 그룹이 공개적으로 항의를 표명하고 OpenAI의 협력 방식에 불만이 있어 모델에 대한 조기 액세스 권한을 유출했다는 사실을 알게 되었습니다. 그들은 OpenAI가 무료 R&D 및 홍보를 위해 아티스트를 사용하고 아티스트를 "무료 버그 테스터, 홍보 도구, 교육 데이터 또는 검증 토큰"으로만 취급한다고 믿고 있으며, 이는 AI 개발에 대한 아티스트의 권리에 대한 업계의 광범위한 우려를 불러일으켰습니다. 모델.
아티스트들은 Hugging Face 플랫폼에 자신의 불만을 자세히 설명하는 공개 서한을 게시했으며, OpenAI는 상응하는 물질적 보상 없이 '예술적 신뢰성'만 제공할 뿐 아니라 Sora의 콘텐츠 검토 요구 사항에 대한 엄격한 제한을 지적했습니다. OpenAI는 테스트 참여는 자발적이라고 답했으며, 참여 아티스트에 대한 지속적인 지원을 약속했습니다. 하지만 이번 사건은 AI 모델 개발에 있어 윤리와 비즈니스 모델에 대한 사람들의 고민과 아티스트의 권리를 더 잘 보호할 수 있는 방법에 대한 논의를 촉발하기도 했습니다.
예술가들은 예술적 창작에 AI 기술을 적용하는 것에 반대하지는 않지만 OpenAI가 예술가의 노동력을 착취하기 위해 얼리 액세스 프로그램을 사용하는 것을 강력히 비난합니다. 그들은 OpenAI가 아티스트를 회사 목표 달성을 위한 단순한 도구로 취급하기보다는 공정한 급여와 존중을 제공해야 한다고 믿습니다.
공개 서한에서 아티스트들은 다음과 같이 말했습니다: "친애하는 Enterprise AI Lords, 우리가 Sora에 액세스할 수 있게 되었을 때 우리는 초기 테스터이자 창의적인 파트너가 되겠다고 약속받았습니다. 그러나 우리는 단순히 '예술'에 끌려갔다고 믿습니다." 그들은 아티스트가 회사의 "무료 버그 테스터, 홍보 도구, 교육 데이터 또는 인증 토큰"이 아니라는 점을 강조했습니다.
이들 예술가들은 AI 기술을 예술적 창작의 도구로 사용하는 것에 반대하는 것이 아니라 예술가의 창의성을 무급 노동에 활용한다고 믿는 OpenAI의 조기 액세스 프로그램에 불만을 갖고 있습니다.
그들은 OpenAI가 작업에 대한 보답 없이 프로젝트에서 "예술적 신용"을 제공한다고 비판했습니다. 특히 그들은 Sora의 콘텐츠에 대한 OpenAI의 조정 요구 사항에 반대하며 생성된 각 콘텐츠를 공유하려면 먼저 OpenAI 팀의 승인을 받아야 한다고 말했습니다.
OpenAI는 언론의 연락을 받았을 때 소라 유출의 진위 여부를 확인하지는 않았지만 '연구 미리 보기'에 참여하는 아티스트는 자발적이며 피드백을 제공하거나 도구를 사용할 필요가 없다는 점을 강조했습니다. OpenAI 대변인은 "Sora는 아직 연구 단계에 있으며 창의성과 안전 조치의 균형을 맞추기 위해 열심히 노력하고 있습니다. 수백 명의 아티스트의 참여는 새로운 기능과 보호 장치의 우선 순위를 정하는 데 도움이 됩니다. 또한 OpenAI는 지속적인 지원을 약속합니다." 회사는 보조금, 이벤트 및 기타 방법으로 참여 아티스트를 지원합니다.
앞서 OpenAI의 전 CTO인 미라 무라티(Mira Murati)는 소라가 연말 이전에 출시될 것으로 예상되지만 모델의 영향에 자신이 없는 내용은 공개하지 않을 것이라고 밝혔습니다.
최근 Reddit Q&A에서 최고 제품 책임자인 Kevin Weil은 Sora가 아직 출시되지 않은 이유는 기능을 확장하고 보안을 보장하며 임포스터 문제를 방지해야 하기 때문이라고 언급했습니다.
이번 사건은 인공지능 발전에 있어서 윤리와 도덕의 중요성을 다시 한번 강조하고, 기술 발전 이면에 숨어 있는 인본주의적 배려에 주목해야 함을 일깨워준다. 기술 혁신과 예술가 권리의 균형을 어떻게 맞추느냐는 향후 AI 발전에 있어서 진지하게 고민해야 할 문제가 될 것이다. Downcodes의 편집자는 사건의 후속 전개에 계속해서 주의를 기울일 것입니다.