美国国防部正积极探索人工智能在军事领域的应用,并与OpenAI、Anthropic等领先AI公司展开合作。这种合作旨在提高国防部的效率,同时严格遵守不将AI技术用于致命武器的原则。文章探讨了AI在军事决策中的作用,以及关于AI自主武器决策权的伦理争议,并展现了五角大楼对AI技术应用的谨慎态度和严格监管。
随着人工智能技术的迅速发展,像OpenAI 和Anthropic 这样的领先AI 开发者正努力与美国军方合作,寻求在提高五角大楼效率的同时,确保其AI 技术不会用于致命武器。五角大楼的首席数字与AI 官员Dr. Radha Plumb 在接受TechCrunch 采访时表示,当前AI 并未被用于武器,但却在威胁的识别、跟踪和评估上为国防部提供了显着的优势。
图源备注:图片由AI生成,图片授权服务商Midjourney
Dr. Plumb 提到,五角大楼正加快“杀伤链” 的执行,这一过程涉及识别、跟踪并消除威胁,涉及复杂的传感器、平台和武器系统。生成式AI 在杀伤链的规划和策略阶段显示出其潜力。她指出,AI 可以帮助指挥官在面对威胁时,迅速而有效地作出反应。近年来,五角大楼与AI 开发者的关系逐渐密切。 2024年,OpenAI、Anthropic 和Meta 等公司放宽了其使用政策,使美国情报与国防机构能够使用其AI 系统,但仍禁止这些AI 技术用于伤害人类的目的。这一转变使得AI 公司与防务承包商之间的合作迅速展开。例如,Meta 在11月与洛克希德・马丁和Booz Allen 等公司达成了合作,将其Llama AI 模型应用于国防领域。而Anthropic 则与Palantir 达成了类似的合作。虽然这些合作的具体技术细节尚不清楚,但Dr. Plumb 表示,AI 在规划阶段的应用可能与多家领先开发者的使用政策存在冲突。关于AI 武器是否应具备决策生死的能力,业界展开了激烈的讨论。 Anduril 的首席执行官Palmer Luckey 提到,美国军方在自主武器系统的采购上已有悠久历史。然而,Dr. Plumb 对此表示否定,强调在任何情况下,都必须有人参与作出使用武力的决定。她指出,自动化系统独立做出生死决策的想法过于二元化,实际情况要复杂得多。五角大楼的AI 系统是人与机器之间的合作,决策过程中有高级领导的参与。 划重点: AI 正在为五角大楼在识别和评估威胁上提供显着优势,推动军事决策的高效性。 AI 开发者与五角大楼的合作日益紧密,但始终坚持不让AI 技术用于伤害人类。 关于AI 武器是否应具备生死决策能力的讨论仍在继续,五角大楼强调始终有人的参与。总而言之,AI在军事领域的应用前景广阔,但其伦理和安全问题也需要谨慎对待。如何在保障国家安全的同时,避免AI技术被滥用,将是未来需要持续关注和解决的重要课题。