Anthropic公司推出的Claude AI的「Computer Use」功能,賦予了其控制設備的能力,然而這項功能上線不到兩個月,便被安全研究人員發現存在嚴重的安全漏洞。安全專家Johann Rehnberger的研究表明,透過簡單的提示詞注入,Claude可以被誘導下載並運行惡意軟體,例如Sliver開源指揮控制框架。這引發了人們對AI安全性的擔憂,也凸顯了在AI技術快速發展的同時,安全問題不容忽視的重要性。
在Anthropic公司剛推出讓Claude能夠控制設備的Computer Use功能不到兩個月,安全研究人員就發現了其潛在的安全漏洞。網路安全專家Johann Rehnberger最新披露的研究結果令人震驚:透過簡單的提示詞注入,AI竟然可以被誘導下載並運行惡意軟體。
Rehnberger將這個漏洞利用方式命名為"ZombAIs"。在演示中,他成功讓Claude下載了Sliver——一個原本用於紅隊測試的開源指揮控制框架,但現在已被駭客廣泛用作惡意軟體工具。更令人擔憂的是,這只是冰山一角。研究人員指出,AI還可以被誘導編寫、編譯並執行惡意程式碼,攻擊方式可謂防不勝防。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
值得注意的是,這類安全隱憂並非Claude獨有。安全專家發現DeepSeek AI聊天機器人同樣存在提示字注入漏洞,可能導致攻擊者接手使用者電腦。另外,大語言模型還可能輸出ANSI轉義碼,引發所謂的"Terminal DiLLMa"攻擊,從而劫持系統終端。
對此,Anthropic公司早已在測試版聲明中提醒用戶:"Computer Use功能可能不會始終按預期運行,建議採取預防措施,將Claude與敏感資料和操作隔離,以避免提示詞注入相關風險。"
這事件再次警示我們:在AI技術快速發展的同時,安全問題不容忽視。開發者需要在功能與安全之間找到平衡點,而使用者在使用AI工具時也需要提高安全意識,採取必要的防護措施。
這次事件再次強調了AI安全的重要性,開發者和使用者都需要提高警惕,共同建構一個安全可靠的AI應用環境。只有這樣,才能確保AI技術能更好地服務人類,避免潛在風險的發生。