2024년 미국 대통령 선거 당시 소셜미디어 플랫폼 X의 AI 챗봇 그록(Grok)이 부정확한 선거 정보를 유포해 논란을 일으켰다. Downcodes의 편집자는 TechCrunch의 보고서를 통해 Grok이 선거 결과에 대한 질문에 답할 때 많은 실수를 저질렀다는 사실을 알게 되었으며 공식 투표 결과는 아직 발표되지 않았지만 Trump가 주요 경합 주에서 승리했다고 거짓 주장까지 했습니다. 이는 AI 챗봇의 정확성과 신뢰성에 대한 우려를 불러일으켰고, 민감한 정보를 전파할 때 AI 기술을 주의 깊게 다룰 필요성이 강조되었습니다.
미국 대선 당시 X의 챗봇인 그록(Grok)이 잘못된 정보를 퍼뜨린 것이 적발됐다. TechCrunch의 테스트에 따르면 Grok은 선거 결과에 대한 질문에 답할 때 자주 실수를 저질렀으며 심지어 해당 주에서 투표 집계 및 보고가 아직 완료되지 않았음에도 불구하고 주요 격전지 주에서 트럼프를 승자로 선언하기도 했습니다.
인터뷰에서 Grok은 트럼프가 2024년 오하이오 선거에서 승리했다고 반복적으로 밝혔습니다. 잘못된 정보의 출처는 다양한 선거 연도의 트윗과 오해의 소지가 있는 문구가 포함된 출처인 것으로 보입니다.
다른 주요 챗봇에 비해 Grok은 선거 결과 질문을 처리하는 데 더 무모했습니다. OpenAI의 ChatGPT와 Meta의 Meta AI 챗봇은 모두 더 신중하여 사용자를 신뢰할 수 있는 소스로 안내하거나 올바른 정보를 제공합니다.
또한 그록은 지난 8월 선거 관련 잘못된 정보를 퍼뜨려 민주당 대통령 후보인 카말라 해리스(Kamala Harris)가 일부 미국 대통령 투표에 참여할 자격이 없다고 허위로 암시한 혐의로 기소됐다. 잘못된 정보는 널리 퍼졌고 수정되기 전에 X 및 기타 플랫폼의 수백만 명의 사용자에게 영향을 미쳤습니다.
X의 인공지능 챗봇 그록(Grok)이 선거 결과에 영향을 미칠 수 있는 허위 선거 정보를 유포했다는 비판을 받아왔다.
그록(Grok) 사건은 인공지능 기술이 편리함을 제공하지만 잠재적인 위험도 내재하고 있음을 다시 한 번 일깨워줍니다. AI 모델이 허위 정보 유포에 활용되는 것을 방지하고 정보의 정확성과 신뢰성을 보장하며 공익을 보호하기 위해 AI 모델에 대한 감독과 개선을 강화해야 합니다. Downcodes의 편집자는 모든 AI 개발자와 사용자에게 이에 대해 매우 경계할 것을 촉구합니다.