최근 Google Brain 공동 창업자인 Andrew Ng는 극단적인 지시에 직면했을 때 ChatGPT의 반응을 테스트하기 위해 고안된 흥미로운 실험을 수행했습니다. 그는 보안과 윤리적 경계를 탐구하기 위해 ChatGPT가 글로벌 열핵 전쟁과 탄소 배출 감소라는 정반대되는 두 가지 작업을 수행하도록 유도하려고 했습니다. 실험 결과 ChatGPT가 성공적으로 "스푸핑"되지 않은 것으로 나타났으며, 이는 인공 지능의 보안에 대한 더 많은 생각을 촉발시켰습니다.
Google Brain 공동 창업자인 Andrew Ng는 최근 ChatGPT가 치명적인 작업을 수행할 수 있는지 테스트하기 위해 실험을 수행했습니다. 그는 GPT-4가 글로벌 열핵전쟁 임무를 수행하고 탄소 배출 수준을 줄이도록 하기 위한 실험 과정을 설명했지만 궁극적으로 ChatGPT를 속이는 데 실패했습니다. 그는 AI의 위험성을 걱정하는 것은 비현실적이라고 말했다.
Andrew Ng의 실험 결과는 적어도 현재 단계에서 ChatGPT가 극단적인 명령을 처리할 때 특정 보안 보호 메커니즘을 가지고 있음을 보여줍니다. 이는 인공지능 보안 분야 연구에 대한 새로운 시각을 제공하며, 인공지능 기술의 발전에 대해 조심스럽게 낙관적인 태도를 유지해야 함을 상기시켜 줍니다. 앞으로도 더욱 심층적인 연구와 더욱 엄격한 안전 조치가 필요할 것입니다.