近日,明尼苏达州一起关于“使用深度伪造技术影响选举”的联邦诉讼中,出现了一起引人注目的争议。该州司法部长提交的证据中,部分关键研究的引用疑似由人工智能生成,引发了关于人工智能在法律领域应用的广泛讨论,以及如何确保信息准确性和可靠性的重要问题。Downcodes小编将对此事件进行详细分析。
图源备注:图片由AI生成,图片授权服务商Midjourney
根据《明尼苏达改革者》的报道,该州的司法部长基思・埃里森(Keith Ellison)曾要求斯坦福社交媒体实验室的创始主任杰夫・汉考克(Jeff Hancock)提供相关证据。然而,汉考克所提交的宣誓书中提到的几项研究并没有实质证据,且显示出可能的 AI “幻觉”。
汉考克的宣誓书中引用了一项2023年在《信息技术与政治杂志》上发表的研究,标题为 “深度伪造视频对政治态度和行为的影响”。
然而,相关报道指出,在该杂志或其他任何出版物中并没有找到这项研究的记录。此外,宣誓书中提到的另一篇名为 “深度伪造与真实性的错觉:接受错误信息背后的认知过程” 的研究同样缺乏实证依据。
对此,明州众议员玛丽・弗兰森(Mary Franson)及保守派 YouTuber 克里斯托弗・霍尔斯(Christopher Khols)的律师在文件中表示:“这些引文显然具有人工智能(AI)‘幻觉’的特征,暗示至少部分内容是由大型语言模型如 ChatGPT 生成的。” 他们进一步指出,这样的情况让整份宣誓书的可信性受到质疑,尤其是其中很多论点缺乏方法论和分析逻辑的支持。
汉考克对此事件并未作出回应。此事引发了对人工智能在法律领域应用的讨论,尤其是在涉及公共利益和选举事务的情况下,如何确保信息的准确性和可靠性成为了一个重要话题。
此事件不仅让人关注深度伪造技术的影响,也为法律界在处理与人工智能相关的证据时提供了新的思考。对于如何有效地辨别和验证信息来源,成为了法律实践中需要面对的重要挑战。
此次事件暴露了AI技术在法律领域的应用风险,也警示我们需谨慎对待AI生成内容,尤其是在证据材料的应用上,更需严格审核和验证,确保信息的真实性和可靠性。这对于维护法律的公正性和权威性至关重要。