Meta公司近期宣布將其Llama系列人工智能模型開放給美國政府機構及其承包商,用於支持國家安全應用。此舉旨在回應外界對其開放人工智能可能被外國對手利用的擔憂,並展示其在國家安全領域的技術貢獻。 Meta強調,Llama模型的應用將受到嚴格的規範和限制,以確保其不會被用於非法或有害目的。本文將深入探討Meta此舉的背景、合作方以及由此引發的關於開放人工智能安全性的討論。
Meta 公司近日宣布,將其Llama 系列人工智能模型向美國政府機構及相關承包商開放,以支持國家安全應用。
這一舉措旨在消除外界對其“開放” 人工智能可能助長外國對手的看法。 Meta 在一篇博客文章中表示:“我們很高興地確認,Llama 將向美國政府機構提供,包括那些專注於國防和國家安全的項目,以及支持這些工作的私營部門合作夥伴。”
為推動這一項目,Meta 與多家知名公司達成了合作,包括埃森哲、亞遜網絡服務、安迪爾、博思艾倫、Databricks、德勤、IBM、萊多斯、洛克希德・馬丁、微軟、甲骨文、Palantir、Scale AI 和Snowflake。這些公司將幫助將Llama 模型應用於各類國家安全任務。
例如,甲骨文正在使用Llama 處理飛機維護文檔,Scale AI 則在針對特定國家安全任務對Llama 進行微調。而洛克希德・馬丁則計劃將Llama 提供給其國防客戶,幫助他們生成計算機代碼等。
通常,Meta 的政策禁止開發者將Llama 應用於軍事、戰爭或間諜相關項目。然而,在此情況下,Meta 決定破例,允許與美國政府相關的機構及承包商使用Llama,此外也適用於英國、加拿大、澳大利亞和新西蘭等國的類似機構。
值得注意的是,最近有報導稱,某些與中國人民解放軍相關的研究人員使用了舊版Llama 模型(Llama2)開發了一款專注於軍事的聊天機器人,旨在收集和處理情報,為作戰決策提供資訊. Meta 對此回應,該模型的使用是“未經授權的”,違反了公司的可接受使用政策。然而,這一事件進一步引發了對開放人工智能優缺點的廣泛討論。
隨著人工智能在軍事情報、監視和偵察中的應用,相關的安全隱患逐漸浮出水面。一項來自AI Now Institute 的研究表明,現有的人工智能係統依賴於個人數據,這些數據可能被對手提取並武器化。同時,人工智能係統也存在偏見和幻覺等問題,目前尚無有效解決方案。研究人員建議開發與“商業” 模型相隔離的專用人工智能係統。
雖然Meta 宣稱開放AI 能夠加速國防研究,促進美國的經濟與安全利益,但美國軍方對於這一技術的採用依然謹慎,至今只有陸軍進行了生成式人工智能的部署。
劃重點:
Meta 公司將Llama 模型開放給美國政府及國防承包商,支持國家安全應用。
多家知名企業與Meta 合作,共同推動Llama 模型在國防領域的應用。
開放人工智能在軍事應用中的安全隱患引發討論,研究者呼籲開發專模型。
Meta此舉在促進技術發展和國家安全之間取得了微妙的平衡,但同時也凸顯了人工智能技術應用中的倫理和安全挑戰,需要持續關注和謹慎應對。開放AI的未來發展,需要在技術創新和安全保障之間找到最佳路徑。