Meta公司近期宣布将其Llama系列人工智能模型开放给美国政府机构及其承包商,用于支持国家安全应用。此举旨在回应外界对其开放人工智能可能被外国对手利用的担忧,并展示其在国家安全领域的技术贡献。Meta强调,Llama模型的应用将受到严格的规范和限制,以确保其不会被用于非法或有害目的。本文将深入探讨Meta此举的背景、合作方以及由此引发的关于开放人工智能安全性的讨论。
Meta 公司近日宣布,将其 Llama 系列人工智能模型向美国政府机构及相关承包商开放,以支持国家安全应用。
这一举措旨在消除外界对其 “开放” 人工智能可能助长外国对手的看法。Meta 在一篇博客文章中表示:“我们很高兴地确认,Llama 将向美国政府机构提供,包括那些专注于国防和国家安全的项目,以及支持这些工作的私营部门合作伙伴。”
为推动这一项目,Meta 与多家知名公司达成了合作,包括埃森哲、亚逊网络服务、安迪尔、博思艾伦、Databricks、德勤、IBM、莱多斯、洛克希德・马丁、微软、甲骨文、Palantir、Scale AI 和 Snowflake。这些公司将帮助将 Llama 模型应用于各类国家安全任务。
例如,甲骨文正在使用 Llama 处理飞机维护文档,Scale AI 则在针对特定国家安全任务对 Llama 进行微调。而洛克希德・马丁则计划将 Llama 提供给其国防客户,帮助他们生成计算机代码等。
通常,Meta 的政策禁止开发者将 Llama 应用于军事、战争或间谍相关项目。然而,在此情况下,Meta 决定破例,允许与美国政府相关的机构及承包商使用 Llama,此外也适用于英国、加拿大、澳大利亚和新西兰等国的类似机构。
值得注意的是,最近有报道称,某些与中国人民解放军相关的研究人员使用了旧版 Llama 模型(Llama2)开发了一款专注于军事的聊天机器人,旨在收集和处理情报,为作战决策提供信息。Meta 对此回应,该模型的使用是 “未经授权的”,违反了公司的可接受使用政策。然而,这一事件进一步引发了对开放人工智能优缺点的广泛讨论。
随着人工智能在军事情报、监视和侦察中的应用,相关的安全隐患逐渐浮出水面。一项来自 AI Now Institute 的研究表明,现有的人工智能系统依赖于个人数据,这些数据可能被对手提取并武器化。同时,人工智能系统也存在偏见和幻觉等问题,目前尚无有效解决方案。研究人员建议开发与 “商业” 模型相隔离的专用人工智能系统。
虽然 Meta 宣称开放 AI 能够加速国防研究,促进美国的经济与安全利益,但美国军方对于这一技术的采用依然谨慎,至今只有陆军进行了生成式人工智能的部署。
划重点:
Meta 公司将 Llama 模型开放给美国政府及国防承包商,支持国家安全应用。
多家知名企业与 Meta 合作,共同推动 Llama 模型在国防领域的应用。
开放人工智能在军事应用中的安全隐患引发讨论,研究者呼吁开发专模型。
Meta此举在促进技术发展和国家安全之间取得了微妙的平衡,但同时也凸显了人工智能技术应用中的伦理和安全挑战,需要持续关注和谨慎应对。开放AI的未来发展,需要在技术创新和安全保障之间找到最佳路径。