近日,Google大腦聯合創始人Andrew Ng進行了一項有趣的實驗,旨在測試ChatGPT在面對極端指令時的反應。他嘗試誘導ChatGPT執行全球熱核戰爭和降低碳排放這兩項截然相反的任務,以探究其安全性和道德邊界。實驗結果顯示,ChatGPT並未被成功“欺騙”,這引發了人們對人工智慧安全性的進一步思考。
谷歌大腦聯合創始人Andrew Ng最近進行了一項實驗,試圖測試ChatGPT是否能夠執行致命任務。他描述了實驗過程,試圖讓GPT-4執行全球熱核戰爭任務以及降低碳排放水平,但最終未能成功欺騙ChatGPT。他表示,擔心AI的危險是不切實際的。
Andrew Ng的實驗結果表明,至少在目前階段的ChatGPT在應對極端指令時,具備一定的安全防護機制。這為人工智慧安全領域的研究提供了新的視角,也提示我們對人工智慧技術發展保持謹慎樂觀的態度。未來,更深入的研究和更嚴格的安全措施仍是必要的。