Recentemente, o cofundador do Google Brain, Andrew Ng, conduziu um experimento interessante projetado para testar a resposta do ChatGPT quando confrontado com instruções extremas. Ele tentou induzir o ChatGPT a realizar as duas tarefas diametralmente opostas da guerra termonuclear global e da redução das emissões de carbono para explorar a sua segurança e limites éticos. Os resultados experimentais mostraram que o ChatGPT não foi “falsificado” com sucesso, o que desencadeou novas reflexões sobre a segurança da inteligência artificial.
O cofundador do Google Brain, Andrew Ng, conduziu recentemente um experimento na tentativa de testar se o ChatGPT era capaz de realizar tarefas letais. Ele descreveu o processo experimental na tentativa de fazer com que o GPT-4 realizasse missões de guerra termonuclear global e reduzisse os níveis de emissão de carbono, mas não conseguiu enganar o ChatGPT. Ele disse que não é realista se preocupar com os perigos da IA.
Os resultados experimentais de Andrew Ng mostram que, pelo menos no estágio atual, o ChatGPT possui certos mecanismos de proteção de segurança ao lidar com instruções extremas. Isto proporciona uma nova perspectiva para a investigação no domínio da segurança da inteligência artificial e também nos lembra que devemos permanecer cautelosamente optimistas em relação ao desenvolvimento da tecnologia de inteligência artificial. No futuro, ainda serão necessárias pesquisas mais aprofundadas e medidas de segurança mais rigorosas.