ChatGPT의 등장으로 인해 잠재적인 위협에 대한 우려가 제기되었지만 Downcodes 편집자들은 적어도 유머 측면에서는 아직 갈 길이 멀다는 사실을 발견했습니다. 최근 연구에 따르면 ChatGPT가 생성하는 대부분의 농담은 인터넷에 있는 기존 농담을 단순히 각색한 것이며 독창성과 이해력이 부족합니다. 이 연구는 유머를 이해하고 창조하는 데 있어 대규모 언어 모델의 한계를 밝히고, 인공 지능의 창의성과 이해 능력에 대한 우리의 생각을 촉발시킵니다.
ChatGPT는 여러 영역에서 위협과 "멸종"에 대한 우려를 제기하지만, 위협을 가하지 않는 영역이 적어도 하나 있습니다. 바로 코미디입니다. 최신 연구 논문에 따르면 ChatGPT에는 유머 감각이 없으며 제공되는 농담도 독창적이지 않습니다.
두 명의 독일 연구원은 ChatGPT가 실제로 재미있었는지, 상황에 기반한 유머러스한 의사소통이 가능한지, 아니면 단순히 온라인에서 찾았지만 실제로는 이해하지 못한 농담을 복사했는지 확인하려고 했습니다.
arXiv 웹사이트에 게시된 논문은 이 질문에 대한 답이 상당히 복잡할 수 있음을 보여줍니다. 연구진은 실험을 진행해 ChatGPT 로봇에게 "웃긴 농담을 아시나요?"라는 질문에 답하도록 요청했고, 총 1,008개의 농담이 생성되었습니다. 놀랍게도 농담의 90% 이상이 원래의 25개 농담에서 약간 수정되었습니다.
연구자들이 결정한 가장 인기 있는 농담 세 가지는 다음과 같습니다.
허수아비가 상을 받은 이유는 그가 자신의 분야에서 탁월했기 때문이다.
토마토는 왜 빨갛게 변하나요? 이는 샐러드 드레싱과의 상호작용 때문입니다.
"수학책이 왜 가려지는 걸까요? 문제가 너무 많아서요."
연구원들은 ChatGPT에 가장 흔한 25가지 농담이 왜 그렇게 웃겼는지 물었습니다.
챗봇은 유머를 표현할 수 있지만 Sophie Jentzsch와 Kristian Kersting은 논문에서 "ChatGPT는 재미있지만 유머러스하지는 않습니다!"라고 썼습니다. 유머는 여전히 대규모 언어 모델에 도전적입니다."에서는 "흥미롭고 독창적인 콘텐츠를 만드는 데 여전히 어려움을 겪고 있습니다"라고 말합니다. 그러나 그들은 ChatGPT가 농담을 만드는 데 더 발전할 가능성이 있다는 것을 발견했습니다.
ChatGPT의 급속한 발전은 전문가들을 놀라게 했고, 인공지능 윤리학자들은 이것이 노동 시장과 인류 자체에 미칠 수 있는 위험에 대해 경고했습니다.
특히 최신 GPT-4 모델은 맥락 이해와 추론 분야에서 상당한 진전을 이루었습니다. 경제학 교수 브라이언 캐플란(Bryan Caplan)은 로봇이 경제학 시험에서 단 3개월 만에 D에서 A로 놀라운 진전을 이루었다고 말했습니다.
그러나 농담을 하거나 재미있는 저녁 식사 일화를 들려주는 데 있어서는 봇이 여전히 뒤처져 있는 것 같습니다.
"우리 인간조차도 새로운 농담을 즉흥적으로 만드는 데 어려움을 겪습니다. 주로 우리가 이전에 듣고 기억했던 말장난을 포함합니다."라고 연구자들은 썼습니다.
그러나 AI 에이전트가 학습한 내용을 이해할 수 있는지 여부는 매우 까다로운 문제입니다. 이 질문은 단순히 기술적인 질문이 아니라 대체로 철학적인 질문입니다.
이번 연구 결과는 인공지능 기술의 급속한 발전에도 불구하고 인간의 감정, 특히 유머를 이해하고 창조하는 데 여전히 큰 어려움에 직면해 있음을 상기시켜 줍니다. 이는 인공지능의 향후 발전 방향에 대한 새로운 관점을 제시한다.