Meta公司近期宣布將Llama系列人工智慧模型開放給美國政府機構及相關承包商,用於國家安全應用。此舉意在回應外界對其「開放」人工智慧可能被外國對手利用的擔憂,並展現Meta對國家安全的支持。 Downcodes小編將對此事件進行詳細解讀,分析背後的動機、潛在影響以及由此引發的關於人工智慧安全性的討論。
Meta 公司近日宣布,將其Llama 系列人工智慧模型向美國政府機構及相關承包商開放,以支援國家安全應用。
這項舉措旨在消除外界對其「開放」 人工智慧可能助長外國對手的看法。 Meta 在一篇部落格文章中表示:“我們很高興地確認,Llama 將向美國政府機構提供,包括那些專注於國防和國家安全的項目,以及支持這些工作的私營部門合作夥伴。”
為推動這項項目,Meta 與多家知名公司達成了合作,包括埃森哲、亞遜網路服務、安迪爾、博思艾倫、Databricks、德勤、IBM、萊多斯、洛克希德・馬丁、微軟、甲骨文、Palantir、Scale AI 和Snowflake。這些公司將協助將Llama 模型應用於各類國家安全任務。
例如,甲骨文正在使用Llama 處理飛機維護文檔,Scale AI 則在針對特定國家安全任務對Llama 進行微調。而洛克希德・馬丁則計劃將Llama 提供給其國防客戶,幫助他們產生電腦程式碼等。
通常,Meta 的政策禁止開發者將Llama 應用於軍事、戰爭或間諜相關項目。然而,在這種情況下,Meta 決定破例,允許與美國政府相關的機構及承包商使用Llama,此外也適用於英國、加拿大、澳洲和紐西蘭等國的類似機構。
值得注意的是,最近有報導稱,某些與中國人民解放軍相關的研究人員使用了舊版Llama 模型(Llama2)開發了一款專注於軍事的聊天機器人,旨在收集和處理情報,為作戰決策提供資訊. Meta 對此回應,該模型的使用是“未經授權的”,違反了公司的可接受使用政策。然而,這一事件進一步引發了對開放人工智慧優缺點的廣泛討論。
隨著人工智慧在軍事情報、監視和偵察中的應用,相關的安全隱患逐漸浮現。一項來自AI Now Institute 的研究表明,現有的人工智慧系統依賴個人數據,這些數據可能被對手提取並武器化。同時,人工智慧系統也存在偏見和幻覺等問題,目前尚無有效解決方案。研究人員建議開發與「商業」 模型相隔離的專用人工智慧系統。
雖然Meta 宣稱開放AI 能夠加速國防研究,促進美國的經濟與安全利益,但美國軍方對於這項技術的採用依然謹慎,至今只有陸軍進行了生成式人工智慧的部署。
Meta此舉引發了關於人工智慧在國防領域應用的倫理和安全問題的廣泛討論,其長期影響還有待觀察。 Downcodes小編將持續關注這一領域的最新發展,為讀者帶來更多深入的分析和報導。