近日,谷歌大脑联合创始人Andrew Ng进行了一项有趣的实验,旨在测试ChatGPT在面对极端指令时的反应。他尝试诱导ChatGPT执行全球热核战争和降低碳排放这两项截然相反的任务,以探究其安全性和道德边界。实验结果显示,ChatGPT并未被成功“欺骗”,这引发了人们对人工智能安全性的进一步思考。
谷歌大脑联合创始人Andrew Ng最近进行了一项实验,试图测试ChatGPT是否能够执行致命任务。他描述了实验过程,试图让GPT-4执行全球热核战争任务以及降低碳排放水平,但最终未能成功欺骗ChatGPT。他表示,担心AI的危险是不现实的。
Andrew Ng的实验结果表明,至少目前阶段的ChatGPT在应对极端指令时,具备一定的安全防护机制。这为人工智能安全领域的研究提供了新的视角,也提示我们对人工智能技术发展保持谨慎乐观的态度。未来,更深入的研究和更严格的安全措施仍是必要的。