최근 X 플랫폼 (이전의 Twitter)에 대한 새로운 연구가 주목을 끌었습니다. Bochum, Gesis Leibniz Institute 및 CISPA Helmholtz Center의 연구원들은 AI 생성 아바타 계정의 특성과 잠재적 영향을 탐구하기 위해 거의 1,500 만 X 계정을 분석했습니다. 연구 결과에 따르면 아바타를 생성하기 위해 AI를 사용하는 계정의 비율은 매우 낮으며,이 계정은 독특한 행동 패턴을 보여 주어 허위 정보의 확산에 대한 우려를 제기합니다.
Bochum, Gesis Leibniz Institute 및 CISPA Helmholtz Center의 최근 연구에 따르면 최근 AI를 사용하여 Avatars를 생성하는 X (이전의 Twitter)가 모든 계정의 0.052%에 불과합니다. 연구원들은 거의 1,500 만 개의 X 계정을 분석 한 결과 7723 명이 AI 생성 아바타를 사용한 것으로 나타났습니다.
이미지 소스 참고 : 이미지는 AI에 의해 생성되며 이미지 공인 서비스 제공 업체 Midjourney
이 계정은 명백한 특성을 보여줍니다. 추종자가 적고, 많은 계정을 따르지 않았으며, 2023 년에 절반 이상이 생성되었으며 일부 계정은 몇 시간 안에 배치로 만들어졌습니다. 이것은이 계정이 실제 사용자가 아니라는 것을 분명히 보여줍니다. 9 개월의 관찰 후 X 플랫폼은 이러한 계정의 절반 이상을 폐쇄했습니다.
AI 아바타를 사용한 1,000 개의 계정의 수동 내용 분석 과정에서, 연구원들은이 계정의 내용 테마가 주로 정치적 측면, 특히 트럼프, Covid-19 백신 및 우크라이나 전쟁과 관련된 문제에 초점을 맞추고 있음을 발견했습니다. 또한 Cryptocurrencies와 같은 복권 및 재무 주제도 자주 나타납니다. 연구원들은이 계정이 많은 양의 계정이 만들어졌고 동일한 메타 데이터가 조직 된 네트워크에 속할 수 있음을 시사하기 때문에이 계정이 허위 정보와 정치적 선전을 전파하기 위해 구체적으로 만들어 졌다고 추측했다.
이 연구는 AI 아바타를 사용하여 이러한 계정의 확산을 탐색하지 않았지만, 평균 추종자 수가 적고 추종자가 적은 영향은 제한된 영향을 나타냅니다. 이는 OpenAI의 연구와 일치하여 AI가 정치적 선전 정보를 생성하기 위해 AI를 전파하는 소셜 미디어 계정이 거의 응답을받지 못하므로 이러한 계정은 덜 효과적입니다. 연구팀은 향후 분석에서 AI 가짜 아바타 인식의 자동화를 확장하고 업데이트 된 모델을 통합 하여이 기술의 소셜 미디어 플랫폼에 미치는 영향을 더 잘 이해할 계획입니다.
핵심 사항 :
연구에 따르면 X 플랫폼의 계정의 0.052%만이 AI를 사용하여 아바타를 생성하며 대부분은 새로 생성 된 계정입니다.
AI 아바타를 사용하는 계정 컨텐츠 주제는 주로 정치, Covid-19 및 재무 주제를 포함합니다.
이러한 계정 및 이와 유사한 메타 데이터의 배치 생성은 잘못된 정보가 조직의 네트워크에 퍼질 수 있음을 암시합니다.
이 연구는 소셜 미디어에 대한 잘못된 정보를 식별하고 응답하기위한 중요한 참조를 제공하며 정보 보급에서 AI 기술의 잠재적 위험에 계속주의를 기울여야하며보다 효과적인 대처 전략을 탐색해야한다고 제안합니다. 미래의 연구는 사이버 공간의 건전한 개발을 더 잘 유지하기 위해 소셜 미디어에서 AI 생성 아바타의 커뮤니케이션 메커니즘과 영향을 더 탐구 할 것입니다.