近期,AI模型安全問題日益受到關注。北卡羅來納州立大學的研究人員取得重大突破,他們開發出一種透過捕捉電腦電磁訊號來提取AI模型的方法,準確率高達99%以上。這項發現引發了業界對AI模型智慧財產權保護的擔憂,尤其是在OpenAI、Anthropic和Google等公司已投入巨資研發專有模式的背景下。文章探討了這種新技術的潛在影響,以及企業如何應對日益增長的AI模型盜竊風險,並分析了相關安全措施和未來發展趨勢。
近期,北卡羅來納州立大學的研究人員提出了一種新方法,透過捕捉電腦發出的電磁訊號來提取人工智慧(AI)模型,準確率高達99% 以上。這項發現可能對商業AI 發展構成挑戰,尤其是在OpenAI、Anthropic 和Google等公司已經大量投資於專有模式的背景下。不過,專家指出,這種技術在現實世界中的實際影響以及防禦措施仍不清楚。
CUDO Compute 的首席行銷長拉斯・奈曼(Lars Nyman)表示,AI 盜竊不僅僅是模型本身的損失,還可能引發一系列連鎖反應,如競爭對手利用多年的研發成果、監管機構調查知識產權的管理失當,甚至客戶因發現自身的AI “獨特性” 並不獨特而提起訴訟。這種情況可能促使業界推動標準化審計,就像SOC2或ISO 認證一樣,以此區分安全的企業與不負責任的企業。
近年來,針對AI 模型的駭客攻擊威脅日益嚴重。商業界對AI 的依賴使得這個問題更加突出。最近的報告顯示,數千個惡意檔案被上傳至Hugging Face,這項AI 工具的關鍵儲存庫,嚴重危害了零售、物流和金融等產業使用的模式。國家安全專家警告說,薄弱的安全措施可能導致專有系統面臨盜竊風險,正如OpenAI 的安全漏洞所示。被盜的AI 模型可能被逆向工程或出售,這將削弱企業的投資,並破壞信任,允許競爭對手迅速追趕。
北卡羅來納州立大學的研究團隊透過在Google邊緣張量處理單元(TPU)附近放置探頭,分析其訊號,從而揭示了模型結構的關鍵資訊。此攻擊方式並不需要直接存取系統,這使得AI 智慧財產權面臨嚴重安全風險。研究合著者、電子與電腦工程副教授艾丁・艾蘇(Aydin Aysu)強調,建構一個AI 模型不僅費用高且需要大量計算資源,因此防止模型被盜取是至關重要的。
隨著AI 技術的應用日益廣泛,企業需要重新審視某些用於AI 處理的設備。技術顧問蘇裡爾・阿雷拉諾(Suriel Arellano)認為,企業可能會轉向更集中和安全的計算,或考慮其他更不易被盜的替代技術。儘管盜竊的風險存在,AI 也正在加強網路安全,透過自動化威脅偵測和資料分析提升回應效率,協助辨識潛在威脅並學習應對新攻擊。
劃重點:
研究人員展示了透過捕捉電磁訊號提取AI 模型的方法,準確率超過99%。
AI 模型竊盜可能導致競爭對手利用企業多年研發成果,影響商業安全。
企業需加強AI 模式的安全防護,以應對不斷增加的駭客攻擊威脅。
總而言之,AI模型安全已成為企業關注的焦點。面對日益複雜的網路安全威脅,企業需要積極採取措施,加強AI模型的保護,並探索更安全的AI技術,以保障自身的智慧財產權和商業利益。