Baru-baru ini, salah satu pendiri Google Brain Andrew Ng melakukan eksperimen menarik yang dirancang untuk menguji respons ChatGPT ketika dihadapkan pada instruksi ekstrem. Dia mencoba membujuk ChatGPT untuk melakukan dua tugas yang bertentangan, yaitu perang termonuklir global dan mengurangi emisi karbon untuk mengeksplorasi batas-batas keamanan dan etika. Hasil eksperimen menunjukkan bahwa ChatGPT tidak berhasil "dipalsukan", sehingga memicu pemikiran lebih lanjut tentang keamanan kecerdasan buatan.
Salah satu pendiri Google Brain Andrew Ng baru-baru ini melakukan eksperimen untuk menguji apakah ChatGPT mampu melakukan tugas yang mematikan. Dia menggambarkan proses eksperimental dalam upaya agar GPT-4 melakukan misi perang termonuklir global dan mengurangi tingkat emisi karbon, namun pada akhirnya gagal mengelabui ChatGPT. Dia mengatakan tidak realistis untuk mengkhawatirkan bahaya AI.
Hasil eksperimen Andrew Ng menunjukkan bahwa, setidaknya pada tahap saat ini, ChatGPT memiliki mekanisme perlindungan keamanan tertentu ketika menangani instruksi ekstrem. Hal ini memberikan perspektif baru bagi penelitian di bidang keamanan kecerdasan buatan, dan juga mengingatkan kita untuk tetap optimis terhadap perkembangan teknologi kecerdasan buatan. Di masa depan, penelitian yang lebih mendalam dan langkah-langkah keamanan yang lebih ketat masih diperlukan.