Meta公司近期宣布将Llama系列人工智能模型开放给美国政府机构及相关承包商,用于国家安全应用。此举意在回应外界对其“开放”人工智能可能被外国对手利用的担忧,并展现Meta对国家安全的支持。Downcodes小编将对此次事件进行详细解读,分析其背后的动机、潜在影响以及由此引发的关于人工智能安全性的讨论。
Meta 公司近日宣布,将其 Llama 系列人工智能模型向美国政府机构及相关承包商开放,以支持国家安全应用。
这一举措旨在消除外界对其 “开放” 人工智能可能助长外国对手的看法。Meta 在一篇博客文章中表示:“我们很高兴地确认,Llama 将向美国政府机构提供,包括那些专注于国防和国家安全的项目,以及支持这些工作的私营部门合作伙伴。”
为推动这一项目,Meta 与多家知名公司达成了合作,包括埃森哲、亚逊网络服务、安迪尔、博思艾伦、Databricks、德勤、IBM、莱多斯、洛克希德・马丁、微软、甲骨文、Palantir、Scale AI 和 Snowflake。这些公司将帮助将 Llama 模型应用于各类国家安全任务。
例如,甲骨文正在使用 Llama 处理飞机维护文档,Scale AI 则在针对特定国家安全任务对 Llama 进行微调。而洛克希德・马丁则计划将 Llama 提供给其国防客户,帮助他们生成计算机代码等。
通常,Meta 的政策禁止开发者将 Llama 应用于军事、战争或间谍相关项目。然而,在此情况下,Meta 决定破例,允许与美国政府相关的机构及承包商使用 Llama,此外也适用于英国、加拿大、澳大利亚和新西兰等国的类似机构。
值得注意的是,最近有报道称,某些与中国人民解放军相关的研究人员使用了旧版 Llama 模型(Llama2)开发了一款专注于军事的聊天机器人,旨在收集和处理情报,为作战决策提供信息。Meta 对此回应,该模型的使用是 “未经授权的”,违反了公司的可接受使用政策。然而,这一事件进一步引发了对开放人工智能优缺点的广泛讨论。
随着人工智能在军事情报、监视和侦察中的应用,相关的安全隐患逐渐浮出水面。一项来自 AI Now Institute 的研究表明,现有的人工智能系统依赖于个人数据,这些数据可能被对手提取并武器化。同时,人工智能系统也存在偏见和幻觉等问题,目前尚无有效解决方案。研究人员建议开发与 “商业” 模型相隔离的专用人工智能系统。
虽然 Meta 宣称开放 AI 能够加速国防研究,促进美国的经济与安全利益,但美国军方对于这一技术的采用依然谨慎,至今只有陆军进行了生成式人工智能的部署。
Meta此举引发了关于人工智能在国防领域应用的伦理和安全问题的广泛讨论,其长期影响还有待观察。Downcodes小编将持续关注这一领域的最新发展,为读者带来更多深入的分析和报道。