近日,Google研究團隊公佈了一項令人警醒的研究成果:他們成功地以低至150元的成本攻擊了OpenAI的GPT-3.5-turbo模型。此攻擊方法簡單有效,只需不到2000次API查詢就能取得模型的關鍵資訊。這項發現凸顯了即使是大型語言模式也可能面臨嚴峻的安全威脅,同時也促使我們重新檢視AI安全防護的必要性與迫切性。 研究結果表明,大型語言模型並非堅不可摧,需要持續改進安全機制以應對潛在的風險。
谷歌最新研究揭示了攻擊OpenAI GPT-3.5-turbo 模型的成功方法,成本低至150 元。攻擊簡單有效,透過少於2000 次API 查詢即可取得關鍵資訊。該實驗提醒即使大型語言模型也可能面臨安全威脅,OpenAI 已採取措施修改模型API 以防再次被攻擊。
谷歌的研究為AI安全領域敲響了警鐘,也推動了OpenAI等公司加強模型安全性的努力。未來,更強大的安全措施和防禦機制的研發將成為AI發展中不可或缺的一部分,以確保AI技術的安全可靠應用。