Недавно соучредитель Google Brain Эндрю Нг провел интересный эксперимент, призванный проверить реакцию ChatGPT на экстремальные инструкции. Он пытался побудить ChatGPT выполнить две диаметрально противоположные задачи: глобальную термоядерную войну и сокращение выбросов углекислого газа, чтобы изучить его безопасность и этические границы. Результаты эксперимента показали, что ChatGPT не удалось успешно «подделать», что заставило задуматься о безопасности искусственного интеллекта.
Соучредитель Google Brain Эндрю Нг недавно провел эксперимент, пытаясь проверить, способен ли ChatGPT выполнять смертоносные задачи. Он описал экспериментальный процесс в попытке заставить GPT-4 выполнять глобальные задачи по ведению термоядерной войны и снизить уровень выбросов углерода, но в конечном итоге ему не удалось обмануть ChatGPT. Он сказал, что беспокоиться об опасностях ИИ нереально.
Результаты экспериментов Эндрю Нга показывают, что, по крайней мере на текущем этапе, ChatGPT имеет определенные механизмы защиты при работе с экстремальными инструкциями. Это открывает новую перспективу для исследований в области безопасности искусственного интеллекта, а также напоминает нам о необходимости сохранять осторожный оптимизм в отношении развития технологий искусственного интеллекта. В будущем все равно потребуются более глубокие исследования и более строгие меры безопасности.