최근 비디오 플랫폼 Vimeo는 YouTube 및 TikTok에 합류하여 제작자가 AI 생성 콘텐츠에 명확하게 라벨을 지정하도록 요구하는 주요 업데이트를 발표했습니다. 이번 조치는 플랫폼 콘텐츠의 투명성을 높이고, AI가 제작한 사실적인 영상에 시청자가 오해하는 것을 방지하는 것이 목표다. Downcodes의 편집자는 Vimeo의 새로운 규정의 세부 사항은 물론 플랫폼의 책임과 그에 따른 업계 동향에 대한 심층적인 이해를 제공할 것입니다.
Vimeo는 YouTube 및 TikTok에 합류하여 제작자에게 AI 생성 콘텐츠에 명확한 라벨을 지정하도록 요구하는 주요 업데이트를 발표했습니다. 새로운 규정은 AI가 제작하거나 수정한 경우 사실적으로 보이는 모든 비디오 콘텐츠가 시청자에게 출처를 공개해야 함을 의미합니다.
AI 기술이 발달하면서 영상 콘텐츠의 진위 여부를 판별하는 것이 점점 어려워지고 있다. Vimeo의 새로운 정책은 시청자가 합성 동영상 콘텐츠를 실제 사건으로 오해하지 않도록 고안되었습니다. 이 규칙은 특히 실제 사람, 장소 또는 사건처럼 보이는 비디오를 대상으로 하며 명확하게 애니메이션이 있거나 AI를 사용하여 사소한 제작 지원을 제공하는 콘텐츠에는 적용되지 않습니다.
Vimeo는 또한 동영상이 연설의 긴 일시 중지와 중단을 제거할 수 있는 도구 등 플랫폼에서 제공하는 AI 도구를 사용하는 경우 이러한 동영상에도 AI 콘텐츠로 라벨을 지정해야 한다고 구체적으로 지적했습니다. 이제 Vimeo는 창작자가 자발적으로 AI 콘텐츠에 라벨을 지정하도록 돕습니다. 동영상을 업로드하거나 편집할 때 제작자는 확인란을 선택하여 AI 사용을 선언하고 AI가 오디오, 시각 효과 또는 둘 다에 사용되는지 여부를 표시할 수 있습니다.
현재 수동으로 운영되고 있지만 Vimeo는 AI 콘텐츠를 감지하고 자동으로 라벨을 지정하는 자동화 시스템을 개발하고 있습니다. 회사 CEO 필립 모이어(Philip Moyer)는 공식 블로그에서 장기 목표는 AI 콘텐츠를 안정적으로 감지하여 투명성을 높이고 창작자의 부담을 줄일 수 있는 자동화된 라벨링 시스템을 개발하는 것이라고 밝혔습니다.
Moyer는 올해 4월 Vimeo에 합류한 이후 AI에 대한 회사의 입장을 분명히 했습니다. 그는 Vimeo가 플랫폼에서 호스팅되는 비디오에서 생성 AI 모델 교육을 금지하는 등 AI 회사가 사용자 제작 콘텐츠를 남용하지 않도록 보호하기 위한 조치를 취하고 있다고 사용자에게 말했습니다. 이는 OpenAI의 Sora를 포함한 모델을 교육하기 위해 YouTube의 동영상을 사용하는 것이 서비스 약관에 위배된다는 점을 분명히 한 YouTube의 Neal Mohan과 유사한 입장입니다.
Vimeo의 이러한 조치는 콘텐츠 신뢰성에 대한 Vimeo의 약속을 강화하고 제작자와 시청자가 AI가 점점 더 널리 퍼지는 디지털 세계를 탐색하는 데 도움이 되는 보다 명확한 지침을 제공합니다.
Vimeo의 움직임은 AI 기술 개발의 물결에 대응하여 콘텐츠 진정성과 사용자 경험에 대한 비디오 플랫폼의 책임 있는 태도를 반영합니다. 이는 창작자에게 새로운 요구 사항을 제시할 뿐만 아니라 전체 업계에 대한 벤치마크를 설정하고 업계 표준의 확립 및 발전을 촉진하며 보다 안전하고 투명한 온라인 환경을 공동으로 유지합니다.