Recientemente, el cofundador de Google Brain, Andrew Ng, realizó un interesante experimento diseñado para probar la respuesta de ChatGPT ante instrucciones extremas. Trató de inducir a ChatGPT a realizar las dos tareas diametralmente opuestas de la guerra termonuclear global y la reducción de las emisiones de carbono para explorar sus límites éticos y de seguridad. Los resultados experimentales mostraron que ChatGPT no fue "falsificado" con éxito, lo que llevó a reflexionar más sobre la seguridad de la inteligencia artificial.
El cofundador de Google Brain, Andrew Ng, realizó recientemente un experimento en un intento de probar si ChatGPT era capaz de realizar tareas letales. Describió el proceso experimental en un intento de lograr que GPT-4 realizara misiones de guerra termonuclear global y redujera los niveles de emisiones de carbono, pero finalmente no logró engañar a ChatGPT. Dijo que no es realista preocuparse por los peligros de la IA.
Los resultados experimentales de Andrew Ng muestran que, al menos en la etapa actual, ChatGPT tiene ciertos mecanismos de protección de seguridad cuando se trata de instrucciones extremas. Esto proporciona una nueva perspectiva para la investigación en el campo de la seguridad de la inteligencia artificial y también nos recuerda que debemos permanecer cautelosamente optimistas sobre el desarrollo de la tecnología de inteligencia artificial. En el futuro seguirá siendo necesaria una investigación más profunda y medidas de seguridad más estrictas.