近期,两篇关于生成式人工智能(AI)的论文引发热议,直指AI生成的文本常常是“胡说八道”。这两篇论文分别从AI的本质特性以及现行法律法规的不足角度,深入剖析了AI生成的错误信息对社会带来的潜在危害,并呼吁采取更有效的措施来规避风险。论文作者们认为,简单地将AI错误归结为“幻觉”是误导性的,应该用更准确的术语来描述这种现象,从而提升公众对AI技术的认知和理解,并推动相关法律法规的完善。
最近,两支研究团队发布的论文引发了广泛关注,直言生成式人工智能(AI)产品的内容基本可以被视为 “胡说八道”。这篇名为 “ChatGPT 是胡说八道” 的论文指出,生成式 AI 在产出信息时,对准确性的漠视为公众服务者带来了许多挑战,尤其是那些有法律责任必须说实话的官员。
作者 Michael Townsen Hicks、James Humphries 和 Joe Slater 强调,生成式 AI 产生的错误信息,不能简单地用 “谎言” 或 “幻觉” 来形容。与故意欺骗的谎言不同,胡说八道是指一种不在乎真相的表达方式,企图给人一种特定的印象。他们认为,将 AI 的错误称为 “幻觉” 只会误导公众,让大家觉得这些机器在某种程度上仍然试图传达他们所 “相信” 的东西。
他们表示:“称这些错误为‘胡说八道’而不是‘幻觉’,不仅更准确,也有助于提升公众对科技的理解。” 这段话突显了用更精准的术语来描述 AI 错误的重要性,尤其是在当前科技传播亟需改善的背景下。
与此同时,另一篇关于大型语言模型(LLMs)的研究论文则集中探讨了欧盟在此问题上的法律与伦理环境。论文的结论是,目前关于 AI 的法律法规仍然不够完善,无法有效防止由这些 AI 所产生的 “胡说八道” 带来的危害。作者 Sandra Wachter、Brent Mittelstadt 和 Chris Russell 建议引入类似于出版领域的法规,强调避免可能造成社会危害的 “随意发言”。
他们指出,这种义务强调,没有任何单一实体,无论是公共还是私营部门,应该成为真理的唯一裁决者。他们还表示,生成式 AI 的 “随意发言” 可能将真理转变为频率和多数意见的问题,而不是真实的事实。
总而言之,这两篇论文共同揭示了生成式AI潜在的风险,并呼吁社会各界共同关注并采取行动,完善相关法律法规,规范AI技术发展,确保AI技术能够更好地服务于人类社会。