哥伦比亚大学Tow数字新闻中心的一项最新研究揭示了ChatGPT在新闻来源引用方面存在的严重问题。研究人员对20家出版商的200条新闻引文进行测试,发现ChatGPT高达76.5%的引用存在错误或部分错误,且很少承认信息缺失。这项研究引发了人们对人工智能搜索服务可靠性的担忧,并对人工智能在新闻传播领域应用的安全性提出了质疑,其结论对新闻媒体和人工智能公司都具有重要的警示意义。
哥伦比亚大学Tow数字新闻中心的最新研究敲响了人工智能搜索服务的警钟。研究显示,ChatGPT 在引用新闻来源时存在严重准确性问题,即使是与 OpenAI 有直接合作的出版商也未能幸免。研究团队对来自20家不同出版商的200条新闻引文进行了全面测试,结果令人震惊:在这些案例中,ChatGPT 高达153起出现错误或部分不正确的来源信息。更令人担忧的是,该系统极少主动承认信息缺失,仅在七次尝试中坦诚无法找到来源。
研究人员指出,为了维持用户体验,ChatGPT 宁愿编造答案,也不愿意承认信息匮乏。更为严重的是,系统呈现这些虚假来源时表现出令人不安的自信,完全没有表现出任何不确定性。即便是《纽约邮报》和《大西洋月刊》等与 OpenAI 有直接合作关系的知名出版商,也未能幸免于这一问题。在某些案例中,ChatGPT 甚至链接到未经授权复制整篇文章的网站,而非原始来源。
麻省理工技术评论主编马特·霍南对此评论道:"作为出版商,这绝非我们希望看到的情况,而且目前可行的补救措施极其有限。"
对于这些令人担忧的发现,OpenAI 的回应相对谨慎。公司强调 ChatGPT 每周为2.5亿用户提供服务,并表示正在与合作伙伴共同提高引用准确性。
研究的最终结论清晰明确:目前,出版商无法保证 ChatGPT Search 能够准确展示其内容,无论是否已与 OpenAI 建立合作关系。这一发现无疑将推动人工智能信息可靠性的进一步讨论和改进。
这项研究结果令人警醒,它突显了在依赖人工智能技术获取信息时,批判性思维和事实核查的重要性。未来,需要进一步加强对人工智能模型的监管和改进,以确保其提供的信息准确可靠,避免误导公众。