哥倫比亞大學Tow數位新聞中心的一項最新研究揭示了ChatGPT在新聞來源引用方面存在的嚴重問題。研究人員對20家出版商的200條新聞引文進行測試,發現ChatGPT高達76.5%的引用有錯誤或部分錯誤,很少承認資訊缺失。這項研究引發了人們對人工智慧搜尋服務可靠性的擔憂,並對人工智慧在新聞傳播領域應用的安全性提出了質疑,其結論對新聞媒體和人工智慧公司都具有重要的警示意義。
哥倫比亞大學Tow數位新聞中心的最新研究敲響了人工智慧搜尋服務的警鐘。研究顯示,ChatGPT 在引用新聞來源時存在嚴重準確性問題,即使是與OpenAI 有直接合作的出版商也未能倖免。研究團隊對20家不同出版商的200條新聞引文進行了全面測試,結果令人震驚:在這些案例中,ChatGPT 高達153起出現錯誤或部分不正確的來源資訊。更令人擔憂的是,該系統極少主動承認資訊缺失,僅在七次嘗試中坦誠無法找到來源。
研究人員指出,為了維持使用者體驗,ChatGPT 寧願編造答案,也不願意承認資訊匱乏。更嚴重的是,系統呈現這些虛假來源時表現出令人不安的自信,完全沒有表現出任何不確定性。即便是《紐約郵報》和《大西洋月刊》等與OpenAI 有直接合作關係的知名出版商,也未能倖免於這一問題。在某些案例中,ChatGPT 甚至連結到未經授權複製整篇文章的網站,而非原始來源。
麻省理工技術評論主編馬特·霍南對此評論道:"作為出版商,這絕非我們希望看到的情況,而且目前可行的補救措施極其有限。"
對於這些令人擔憂的發現,OpenAI 的回應相對謹慎。該公司強調ChatGPT 每週為2.5億用戶提供服務,並表示正在與合作夥伴共同提高引用準確性。
研究的最終結論清晰明確:目前,出版商無法保證ChatGPT Search 能夠準確展示其內容,無論是否已與OpenAI 建立合作關係。這項發現無疑將推動人工智慧資訊可靠性的進一步討論和改進。
這項研究結果令人警醒,它突顯了在依賴人工智慧技術來獲取資訊時,批判性思考和事實查核的重要性。未來,需要進一步加強對人工智慧模型的監管和改進,以確保其提供的資訊準確可靠,避免誤導公眾。