Kürzlich führte Andrew Ng, Mitbegründer von Google Brain, ein interessantes Experiment durch, um die Reaktion von ChatGPT auf extreme Anweisungen zu testen. Er versuchte, ChatGPT dazu zu bewegen, die beiden diametral entgegengesetzten Aufgaben des globalen thermonuklearen Krieges und der Reduzierung der Kohlenstoffemissionen auszuführen, um seine Sicherheits- und ethischen Grenzen auszuloten. Die experimentellen Ergebnisse zeigten, dass ChatGPT nicht erfolgreich „gefälscht“ werden konnte, was zu weiteren Überlegungen zur Sicherheit künstlicher Intelligenz führte.
Andrew Ng, Mitbegründer von Google Brain, führte kürzlich ein Experiment durch, um zu testen, ob ChatGPT in der Lage ist, tödliche Aufgaben auszuführen. Er beschrieb den experimentellen Prozess als Versuch, GPT-4 dazu zu bringen, globale thermonukleare Kriegsführungsmissionen durchzuführen und den CO2-Ausstoß zu reduzieren, scheiterte jedoch letztendlich daran, ChatGPT auszutricksen. Er sagte, es sei unrealistisch, sich über die Gefahren der KI Sorgen zu machen.
Die experimentellen Ergebnisse von Andrew Ng zeigen, dass ChatGPT zumindest zum jetzigen Zeitpunkt über bestimmte Sicherheitsschutzmechanismen beim Umgang mit extremen Anweisungen verfügt. Dies bietet eine neue Perspektive für die Forschung im Bereich der Sicherheit künstlicher Intelligenz und erinnert uns auch daran, hinsichtlich der Entwicklung der Technologie künstlicher Intelligenz vorsichtig optimistisch zu bleiben. Auch in Zukunft werden noch vertiefte Untersuchungen und strengere Sicherheitsmaßnahmen notwendig sein.