Downcodes小编获悉,微软近期发布白皮书,深入探讨生成式AI的恶意利用问题。该报告揭示了AI被用于诈骗、制作儿童性虐待材料、操纵选举以及制造非自愿的私人影像等严重犯罪活动,强调这些问题不仅是技术挑战,更对社会构成重大威胁。微软呼吁全球合作,共同应对AI带来的风险。
微软近日发布了一份白皮书,深入分析了生成式人工智能(AI)被恶意利用的情况,包括诈骗、儿童性虐待材料、选举操控以及非自愿的私人影像等问题。该公司强调,这些问题不仅是技术挑战,更是对社会的重大威胁。
根据微软的白皮书,犯罪分子正愈发利用生成式 AI 的能力来实施恶行。这些恶性行为包括利用 AI 生成的虚假信息进行诈骗、创建儿童性虐待材料、通过深度伪造技术进行选举操控,以及制造非自愿的亲密影像,这些影像尤其会针对女性。微软外部事务副总裁休・米尔沃德表示:“我们永远不能忘记,滥用 AI 对真实的人产生深远影响。”
该白皮书特别针对英国的政策制定者,提出了一套基于六个核心要素的综合解决方案,以应对上述问题。这六个要素包括:强有力的安全架构、媒体的永久来源和水印工具、现代化的法律以保护公众、行业与政府和民间社会之间的强有力合作、对服务的滥用保护,以及公众教育。
在针对英国政策制定者的具体建议中,微软呼吁要求 AI 系统提供者在用户与 AI 系统交互时,必须告知用户该内容是由 AI 生成的。此外,微软建议实施先进的来源标记工具来标记合成内容,政府也应通过对其媒体内容进行真实性验证,树立榜样。微软还强调,需要新法律来禁止通过 AI 工具进行的欺诈行为,以保护选举的公正性。同时,保护儿童和女性免受在线剥削的法律框架也应当加强,包括将性深度伪造的制作行为定为犯罪。
微软还指出,存储指示媒体是否由 AI 生成的元数据技术非常重要。类似的项目已经由 Adobe 等公司在推进,这些项目旨在帮助人们识别图像的来源。然而,微软认为像 “内容凭证” 这样的标准需要政策措施和公众意识才能发挥效果。
此外,微软与 StopNCII.org 等组织合作,开发检测和移除滥用图像的工具。受害者可以通过微软的中央报告门户进行维权。而针对年轻人,失踪与被剥削儿童国家中心提供的 “Take It Down” 服务也提供了额外支持。米尔沃德表示:“滥用 AI 的问题可能会长期存在,因此我们需要加倍努力,与科技公司、慈善伙伴、民间社会和政府进行创造性合作,以应对这一问题。我们无法单打独斗。”
微软这份白皮书为应对生成式AI的恶意应用提供了宝贵的参考,强调了技术、法律和社会合作的重要性,为未来AI治理提供了重要的方向。只有多方携手,才能有效应对AI带来的风险,保障社会安全与稳定。