谷歌Project Zero與DeepMind合作開發的AI模型Big Sleep,在SQLite數據庫中成功發現並修復了一個內存安全漏洞。這是AI首次在真實世界軟件中發現已知漏洞,標誌著AI在軟件安全領域取得重大突破。 Big Sleep通過分析SQLite代碼庫,發現了此前傳統模糊測試未能檢測到的棧緩衝下溢漏洞,並幫助開發團隊及時修復,避免了潛在的安全風險。這一成果展示了AI在輔助軟件安全檢測方面的巨大潛力,為未來軟件安全研究提供了新的方向。
谷歌近日宣布,其最新開發的AI 模型“Big Sleep” 成功在SQLite 數據庫中發現了一處內存安全漏洞。這一漏洞是一種可被利用的棧緩衝下溢問題,令該代碼在正式發布前得以修復。 Big Sleep 是谷歌Project Zero 與DeepMind 的合作成果,被視為早期Project Naptime 的升級版。
SQLite 作為一種開源數據庫引擎,這一漏洞可能使攻擊者通過惡意構造的數據庫或SQL 注入,導致SQLite 執行崩潰或甚至實現任意代碼執行。具體來說,問題源於一個魔法值-1意外被用作數組索引,雖然代碼中有assert () 來捕獲這一問題,但在發布版本中,該調試級別的檢查會被移除。
谷歌指出,利用這一漏洞並不簡單,然而更重要的是,這是AI 首次在真實世界軟件中發現已知漏洞。根據谷歌的說法,傳統的模糊測試(fuzzing)方法未能找到這個問題,但Big Sleep 的確做到了。經過分析項目源代碼的一系列提交,Big Sleep 在10月初鎖定了這個漏洞,並在同一天內得到了修復。
谷歌在11月1日的公告中表示,這一研究成果在防禦方面有著巨大的潛力。雖然模糊測試已經有了顯著的成效,但谷歌團隊認為需要一種新方法來幫助開發者發現那些難以通過模糊測試找到的漏洞,他們對AI 在這方面的能力充滿期待。
在此之前,位於西雅圖的Protect AI 公司也推出了一款名為Vulnhuntr 的開源工具,聲稱可以利用Anthropic 的Claude AI 模型在Python 代碼庫中發現零日漏洞。然而,谷歌團隊強調,這兩個工具的用途不同,Big Sleep 發現的是與內存安全相關的漏洞。
目前,Big Sleep 仍處於研究階段,之前主要在已知漏洞的小型程序上進行測試。此次則是其首次在真實環境下進行實驗。為了進行測試,研究團隊收集了SQLite 代碼庫的幾個最新提交,並在分析後,調整了模型的提示內容,最終找到了這個漏洞。
儘管取得了這一成就,谷歌團隊提醒大家,這些結果仍然屬於高度實驗性階段,當前目標特定的模糊測試在發現漏洞方面可能同樣有效。
劃重點:
** 谷歌的AI 模型Big Sleep 首次發現SQLite 內存安全漏洞。 **
** 該漏洞在正式發布前即被修復,標誌著AI 在漏洞發現方面的新進展。 **
** 儘管取得了成果,但谷歌強調目前的結果仍屬實驗性,模糊測試仍然有效。 **
總而言之,Big Sleep 的成功案例展示了AI在軟件安全領域應用的潛力,但同時也提醒我們,AI工具目前仍處於發展階段,需要結合傳統方法才能更好地發揮作用,未來需要更多研究來提升其可靠性和效率。