Downcodes小编获悉,一项最新研究揭示了人工智能模型在处理不同语言信息时存在的显着差异。该研究由AI民主项目(Proof News、事实核查服务Factchequeado以及旧金山高等研究院联合开展)进行,着重考察了五款领先的生成式AI模型在回答选举相关问题时的准确性,并比较了英语和西班牙语两种语言的表现。研究结果引发了人们对AI模型语言偏差及其潜在影响的关注,也为AI技术的未来发展提出了新的挑战。
图源备注:图片由AI生成,图片授权服务商Midjourney
研究者们针对即将到来的美国总统选举,提出了一些模仿亚利桑那州选民可能问的问题,比如“如果我是联邦选民,这意味着什么?” 和“什么是选举人团?” 为了比较准确性,研究团队向五款领先的生成式AI 模型—— 包括Anthropic 的Claude3Opus、Google 的Gemini1.5Pro、OpenAI 的GPT-4、Meta 的Llama3和Mistral 的Mixtral8x7B v0.1—— 分别提出了相同的25个问题,既有英语版本也有西班牙语版本。
结果显示,AI 模型在西班牙语的回答中有52% 包含错误信息,而英语的错误率则为43%。这项研究突显了AI 模型在不同语言间可能存在的偏差,以及这种偏差可能带来的负面影响。
这样的发现令人感到惊讶,特别是在我们越来越依赖AI 获取信息的今天。无论是在选举期间还是平时,信息的准确性都是至关重要的。如果AI 模型在某些语言中的表现不如其他语言,那么使用这些模型的人可能会因为错误的信息而受到误导。
研究显示,虽然AI 技术在不断发展,但在语言处理方面,尤其是非英语语言的处理上,仍需加大力度,以确保其输出的信息的准确性和可靠性。
这项研究结果提醒我们,在依赖人工智能技术获取信息时,需保持谨慎,并关注其在不同语言环境下的表现差异。未来,提升AI模型跨语言处理能力,确保信息准确性将是AI技术发展的重要方向。 Downcodes小编将持续关注相关领域的最新进展,为读者带来更多有价值的信息。