최근 Downcodes의 편집자는 AI 생성 콘텐츠의 증가하는 문제에 대처하고 사용자의 콘텐츠 진위 여부 식별 능력을 향상시키기 위해 Google이 검색 결과에 새로운 기능을 추가하겠다고 발표했다는 사실을 알게 되었습니다. 이 기능은 사용자가 이미지가 생성되고 편집되는 위치를 더 잘 이해할 수 있도록 도와줌으로써 잘못된 정보와 딥페이크 이미지의 부정적인 영향을 줄이기 위해 설계되었습니다. 이 기능의 출시는 Google이 Amazon, Adobe, Microsoft와 같은 거대 기술 기업도 회원으로 포함되어 있는 C2PA(Content Provenance and Authenticity Alliance)에 가입한 후 중요한 단계입니다.
최근 Google은 사용자가 콘텐츠가 생성되고 수정되는 방식을 더 잘 이해할 수 있도록 검색 결과에 새로운 기능을 출시할 것이라고 발표했습니다. 이러한 움직임은 Google이 Amazon, Adobe, Microsoft 등 주요 브랜드를 포함하고 온라인 허위 정보 퇴치에 전념하는 C2PA(Content Provenance and Authenticity Alliance)에 가입한 이후에 나온 것입니다.
구글은 앞으로 몇 달에 걸쳐 점진적으로 출시될 새로운 기능이 현재의 콘텐츠 자격 증명 표준(예: 이미지의 메타데이터)을 활용하여 검색 시 AI가 생성하거나 편집한 이미지에 태그를 지정하여 사용자의 투명성을 높인다고 밝혔습니다.
사용자는 이미지 위의 점 3개를 클릭하고 '이 이미지 정보'를 선택하면 해당 이미지가 AI로 생성되었는지 확인할 수 있습니다. 이 기능은 Google Lens 및 Android의 '검색에 동그라미' 기능을 통해서도 사용할 수 있습니다. 하지만 이 태그는 눈에 잘 띄지 않아 사용자가 이미지의 출처를 확인하기 위해 추가 단계를 거쳐야 한다는 점은 주목할 가치가 있습니다.
최근 AI 기술이 발전하면서 영상 딥페이크 기술과 AI 생성 이미지 문제가 점점 심각해지고 있다. 예를 들어, 트럼프는 자신의 캠페인을 지지하는 테일러 스위프트의 가상 이미지를 게시하여 많은 오해와 논란을 불러일으켰습니다. 또한 테일러 스위프트는 AI가 생성한 악성 이미지도 접해 AI 이미지의 진위 여부에 대한 의구심을 불러일으켰다.
Google의 이 기능 출시는 좋은 시작이지만 이 숨겨진 라벨이 충분히 효과적인지에 대한 우려는 여전히 남아 있습니다. 많은 사용자는 이 이미지 정보 기능이 존재한다는 사실을 모르고 이 새로운 도구를 최대한 활용하지 못할 수도 있습니다. 또한 현재 일부 카메라 모델과 일부 소프트웨어에서만 콘텐츠 바우처 기능을 구현하고 있어 시스템 효율성도 제한됩니다.
워털루 대학의 연구에 따르면 AI가 생성한 이미지와 실제 이미지의 차이를 구분할 수 있는 사람은 61%에 불과합니다. 이는 Google의 태깅 시스템을 효과적으로 사용하지 못하면 진정한 투명성을 제공하기 어려울 것임을 의미합니다. 사용자에게.
가장 밝은 부분:
Google은 사용자 투명성을 높이기 위해 AI가 생성하고 편집한 이미지에 라벨을 지정하는 새로운 기능을 출시할 예정입니다.
사용자는 '이 이미지 정보' 기능을 통해 이미지가 AI에 의해 생성되었는지 확인할 수 있지만 라벨이 눈에 띄지 않습니다.
? 연구에 따르면 61%의 사람들만이 AI 이미지와 실제 이미지를 구별할 수 있으며 Google은 라벨의 가시성을 높여야 합니다.
전체적으로 볼 때, Google의 움직임은 허위 정보에 맞서 싸우는 중요한 단계이지만 그 효과는 아직 확인되지 않습니다. 태그의 가시성을 높이고 콘텐츠 바우처 기술을 대중화하는 것이 향후 개선의 핵심 방향이 될 것입니다. 다운코드 편집자는 이 기능의 후속 개발에 계속 주의를 기울이고 독자에게 더 많은 관련 정보를 제공할 것입니다.