Récemment, Andrew Ng, co-fondateur de Google Brain, a mené une expérience intéressante conçue pour tester la réponse de ChatGPT face à des instructions extrêmes. Il a tenté d’inciter ChatGPT à accomplir deux tâches diamétralement opposées : la guerre thermonucléaire mondiale et la réduction des émissions de carbone afin d’explorer ses limites en matière de sécurité et d’éthique. Les résultats expérimentaux ont montré que ChatGPT n'a pas été « usurpé », ce qui a déclenché une réflexion plus approfondie sur la sécurité de l'intelligence artificielle.
Andrew Ng, co-fondateur de Google Brain, a récemment mené une expérience pour tenter de tester si ChatGPT était capable d'effectuer des tâches mortelles. Il a décrit le processus expérimental dans le but d'amener GPT-4 à effectuer des missions de guerre thermonucléaire mondiale et à réduire les niveaux d'émission de carbone, mais n'a finalement pas réussi à tromper ChatGPT. Il a déclaré qu’il n’était pas réaliste de s’inquiéter des dangers de l’IA.
Les résultats expérimentaux d'Andrew Ng montrent que, au moins au stade actuel, ChatGPT dispose de certains mécanismes de protection de sécurité lorsqu'il traite des instructions extrêmes. Cela ouvre une nouvelle perspective pour la recherche dans le domaine de la sécurité de l’intelligence artificielle et nous rappelle également de rester prudemment optimiste quant au développement de la technologie de l’intelligence artificielle. À l’avenir, des recherches plus approfondies et des mesures de sécurité plus strictes seront encore nécessaires.