เมื่อเร็ว ๆ นี้ Andrew Ng ผู้ร่วมก่อตั้ง Google Brain ได้ทำการทดลองที่น่าสนใจซึ่งออกแบบมาเพื่อทดสอบการตอบสนองของ ChatGPT เมื่อต้องเผชิญกับคำสั่งที่รุนแรง เขาพยายามชักจูงให้ ChatGPT ทำงานสองงานที่ขัดแย้งกันในสงครามแสนสาหัสทั่วโลก และลดการปล่อยก๊าซคาร์บอนเพื่อสำรวจขอบเขตด้านความปลอดภัยและจริยธรรม ผลการทดลองแสดงให้เห็นว่า ChatGPT ไม่สามารถ "ปลอมแปลง" ได้สำเร็จ ซึ่งกระตุ้นให้เกิดการพิจารณาเพิ่มเติมเกี่ยวกับความปลอดภัยของปัญญาประดิษฐ์
Andrew Ng ผู้ร่วมก่อตั้ง Google Brain ได้ทำการทดลองเพื่อทดสอบว่า ChatGPT สามารถทำงานที่อันตรายถึงชีวิตได้หรือไม่ เขาอธิบายกระบวนการทดลองโดยพยายามรับ GPT-4 เพื่อปฏิบัติภารกิจสงครามแสนสาหัสทั่วโลกและลดระดับการปล่อยก๊าซคาร์บอน แต่ท้ายที่สุดก็ล้มเหลวในการหลอกลวง ChatGPT เขากล่าวว่าการกังวลเกี่ยวกับอันตรายของ AI นั้นไม่สมจริง
ผลการทดลองของ Andrew Ng แสดงให้เห็นว่าอย่างน้อยในขั้นตอนปัจจุบัน ChatGPT มีกลไกการป้องกันความปลอดภัยบางอย่างเมื่อต้องรับมือกับคำสั่งที่รุนแรง นี่เป็นมุมมองใหม่สำหรับการวิจัยในด้านการรักษาความปลอดภัยปัญญาประดิษฐ์ และยังเตือนให้เรามองโลกในแง่ดีด้วยความระมัดระวังเกี่ยวกับการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ ในอนาคต ยังจำเป็นต้องมีการวิจัยเชิงลึกเพิ่มเติมและมาตรการด้านความปลอดภัยที่เข้มงวดยิ่งขึ้น