隨著人工智慧技術,特別是大型語言模型(LLMs)的快速發展,其安全問題日益凸顯。然而,現有的法律法規,特別是美國的《電腦詐欺和濫用法》(CFAA),在應對AI安全研究中的法律風險方面存在不足。哈佛大學學者近期在黑帽大會上指出,CFAA未能有效保護AI安全研究人員,反而可能使其面臨法律風險,引發了業界對AI安全研究法律架構的廣泛關注與討論。本文將對此進行深入分析。
在現代科技快速發展的今天,人工智慧尤其是大型語言模式(LLMs)正逐漸成為焦點。然而,美國的網路安全法律似乎跟不上這個快速變化的領域。最近,哈佛大學的一群學者在黑帽大會上指出,現行的《電腦詐欺和濫用法》(CFAA)並不能有效保護那些從事AI 安全研究的人,反而可能讓他們面臨法律風險。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
這些學者包括哈佛法學院的凱德拉・阿爾伯特(Kendra Albert)、拉姆・尚卡爾・西瓦庫馬爾(Ram Shankar Siva Kumar)和喬納森・佩尼(Jonathon Penney)。阿爾伯特在接受採訪時提到,現有的法律對於像「提示注入攻擊」 這樣的行為並沒有明確的界定,這使得研究人員很難判斷他們的行為是否觸犯了法律。她表示,雖然某些行為如未經許可存取模型是明確違法的,但如果研究人員已經獲得了使用AI 系統的權限,卻在其不希望的方式下使用這些模型,是否就構成了違法,這就變得模糊不清。
2021年,美國最高法院的「範布倫訴美國」 案改變了對CFAA 的解釋,規定該法只適用於那些未經授權存取電腦內部資訊的人。這項判決在傳統電腦系統中有其意義,但在涉及大型語言模型時就顯得捉襟見肘。阿爾伯特指出,使用自然語言與AI 互動的方式,使得這種法律界定變得更加複雜,很多時候,AI 的回應並不等於從資料庫中檢索資訊。
同時,西瓦庫馬爾也提到,關於AI 安全研究的法律討論遠不及版權等問題受到重視,他自己也不確定是否在進行某些攻擊測試時會受到保護。阿爾伯特則表示,鑑於現有法律的不確定性,未來可能會在法庭上通過訴訟來釐清這一問題,但目前卻讓很多“好心的” 研究人員感到無所適從。
在這個法律環境下,阿爾伯特建議安全研究人員最好尋求法律支持,以確保自己的行動不會觸犯法律。她也擔心,模糊的法律條款可能會導致有潛力的研究人員被嚇退,反而讓惡意攻擊者得以逍遙法外,造成更大的安全隱患。
劃重點:
美國《電腦詐欺和濫用法》對AI 安全研究者的保護不足,可能面臨法律風險。
現行法律對提示注入攻擊等行為缺乏明確界定,導致研究者難以判斷合法性。
學者認為,未來可能需要透過法庭訴訟來釐清相關法律條款,保護善意研究者。
總而言之,AI安全研究領域的法律困境需要重視。 針對大型語言模式的特性,需要製定更清晰、更具針對性的法律法規,以保護合法研究人員的權益,促進AI安全研究的健康發展,同時有效打擊惡意攻擊行為。這樣才能確保人工智慧技術的健康發展,造福全人類。