OpenAI는 AI 생성 콘텐츠 확산에 대응하기 위해 ChatGPT에서 생성된 텍스트를 식별할 수 있는 워터마크 기술을 개발하고 있습니다. 이 기술은 단어 선택을 미세하게 조정하여 텍스트에 보이지 않는 워터마크를 삽입함으로써 추적성을 가능하게 합니다. 이 기술은 일부 상황에서는 잘 작동하지만 텍스트 변조와 같은 상황에서는 덜 효과적이며 특정 그룹에 불균형적으로 영향을 미칠 수 있습니다. 따라서 OpenAI는 신중한 접근 방식을 취하고 있으며 그동안 분류자 및 메타데이터와 같은 다른 솔루션을 모색하고 있습니다.
월스트리트 저널에 따르면 OpenAI는 ChatGPT에서 생성된 텍스트를 높은 정확도로 인식하는 도구를 개발했지만 아직 공식적으로 출시되지 않았습니다. 이 도구는 텍스트에 보이지 않는 워터마크를 삽입하여 ChatGPT에서 생성된 콘텐츠를 식별할 계획이지만, 이 기술은 텍스트 수정 및 번역 시 실패 문제, 특정 집단에 대한 차별 가능성 등 여전히 많은 과제에 직면해 있습니다. OpenAI는 이 기술이 그들이 탐구하고 있는 많은 솔루션 중 하나일 뿐이며 이 연구를 신중하게 진행하고 시청각 콘텐츠에 대한 인증 도구 개발을 우선시할 것이라고 강조합니다. 이러한 움직임은 업계에서 AI 생성 콘텐츠의 식별 및 관리에 대한 광범위한 논의를 촉발했으며, 혁신 보호와 위험 예방 간의 균형을 유지하는 방법이 초점이 되었습니다.
OpenAI는 텍스트 워터마킹이 텍스트의 출처를 결정하기 위해 분류자 및 메타데이터를 포함하여 탐색 중인 여러 솔루션 중 하나일 뿐이라고 말합니다. 텍스트 워터마킹 기술은 어떤 경우에는 잘 작동하지만 번역, 재작성, 특수 문자 삽입 등의 변조가 발생하면 그 효과가 떨어집니다. 또한 이 기술은 영어가 모국어가 아닌 특정 그룹에 불균형적으로 영향을 미칠 수 있습니다.
위의 복잡한 요소와 전체 생태계에 대한 잠재적 영향을 고려하여 OpenAI는 텍스트 속성 기술에 대한 연구를 신중하게 진행하고 시청각 콘텐츠에 대한 인증 도구 개발을 우선시할 것이라고 밝혔습니다.
이 결정은 업계에서 AI 생성 콘텐츠의 식별 및 관리에 대한 광범위한 논의를 촉발시켰습니다. AI 기술의 급속한 발전으로 인해 혁신 보호와 위험 예방 사이에서 균형을 유지하는 방법이 모든 당사자의 관심의 초점이 되었습니다.
AI 콘텐츠 추적 기술에 대한 OpenAI의 신중한 태도는 기술 개발의 복잡성과 윤리적 과제를 반영합니다. 앞으로 AI가 생성한 콘텐츠를 어떻게 효과적으로 식별하고 관리할 것인가는 인공지능 분야에서 지속적인 관심의 핵심 이슈가 될 것이며 기술, 정책, 윤리의 공동 노력이 필요할 것이다.