Columbia University의 Tow Center for Digital Journalism의 새로운 연구에 따르면 ChatGPT의 뉴스 출처 인용에 심각한 문제가 있음이 드러났습니다. 연구원들은 20개 출판사로부터 200개의 뉴스 인용을 테스트한 결과 ChatGPT 인용의 최대 76.5%에 오류 또는 부분 오류가 포함되어 있으며 누락된 정보가 거의 인정되지 않는 것으로 나타났습니다. 이 연구는 인공지능 검색 서비스의 신뢰성에 대한 우려를 불러일으키고 뉴스 전파 분야에서 인공지능 애플리케이션의 안전성에 대한 의문을 제기했습니다. 그 결론은 뉴스 매체와 인공지능 기업 모두에게 중요한 경고 의미를 갖습니다.
컬럼비아 대학교 디지털 저널리즘 토우 센터(Tow Center for Digital Journalism)의 새로운 연구는 인공 지능 검색 서비스에 대한 경종을 울립니다. 연구에 따르면 ChatGPT는 뉴스 소스를 인용할 때 OpenAI와 직접 협력하는 게시자의 경우에도 심각한 정확성 문제가 있는 것으로 나타났습니다. 연구팀은 20개 출판사의 200개 뉴스 인용에 대해 포괄적인 테스트를 실시했으며 결과는 충격적이었습니다. 이 사례 중 무려 153개에서 ChatGPT에 잘못된 또는 부분적으로 잘못된 소스 정보가 있었습니다. 더욱 걱정스러운 점은 시스템이 정보 누락을 적극적으로 인정하는 경우가 거의 없으며, 출처를 찾을 수 없다는 사실을 단 7번만 인정했다는 것입니다.
연구원들은 사용자 경험을 유지하기 위해 ChatGPT가 정보 부족을 인정하기보다는 답변을 만드는 것을 선호한다고 지적했습니다. 더 심각한 것은 시스템이 이러한 잘못된 소스를 불안한 자신감으로 제시하고 전혀 불확실성을 보이지 않는다는 것입니다. OpenAI와 직접적인 파트너십을 맺고 있는 New York Post, The Atlantic 등 유명 출판사도 이 문제에서 자유롭지 않습니다. 어떤 경우에는 ChatGPT가 원본 소스가 아닌 승인 없이 기사 전체를 복사한 웹사이트로 연결되기도 했습니다.
MIT Technology Review의 편집장인 Matt Honan은 이에 대해 다음과 같이 말했습니다. "출판사로서 이것은 분명히 우리가 보고 싶은 상황이 아니며 현재 가능한 해결책은 극히 제한적입니다."
OpenAI는 이러한 우려스러운 결과에 대해 상대적으로 신중한 대응을 해왔습니다. 회사는 ChatGPT가 매주 2억 5천만 명의 사용자에게 서비스를 제공하고 있으며 인용 정확도를 높이기 위해 파트너와 협력하고 있다고 강조했습니다.
연구의 최종 결론은 분명합니다. 현재 게시자는 OpenAI와의 파트너십 여부에 관계없이 ChatGPT 검색이 콘텐츠를 정확하게 표시한다는 보장이 없습니다. 이번 발견은 의심할 바 없이 인공지능 정보의 신뢰성에 대한 더 많은 논의와 개선을 촉진할 것입니다.
이번 연구 결과는 경각심을 불러일으키며 정보를 얻기 위해 인공 지능 기술에 의존할 때 비판적 사고와 사실 확인의 중요성을 강조합니다. 앞으로는 인공지능 모델이 제공하는 정보가 정확하고 신뢰할 수 있으며 대중을 오도하지 않도록 감독 및 개선이 더욱 강화되어야 합니다.