Munculnya ChatGPT telah menimbulkan kekhawatiran tentang potensi ancamannya, namun editor Downcodes menemukan bahwa, setidaknya dalam hal humor, perjalanannya masih panjang. Sebuah penelitian baru-baru ini menunjukkan bahwa ChatGPT tidak memiliki selera humor yang sebenarnya. Sebagian besar lelucon yang dihasilkannya didasarkan pada adaptasi sederhana dari lelucon yang ada di Internet, kurang orisinalitas dan pemahaman. Penelitian ini mengungkap keterbatasan model bahasa besar dalam memahami dan menciptakan humor, dan juga memicu pemikiran kita tentang kreativitas dan kemampuan pemahaman kecerdasan buatan.
ChatGPT menimbulkan kekhawatiran tentang ancaman dan “kepunahan” di banyak bidang, namun setidaknya ada satu bidang yang tidak menimbulkan ancaman: komedi. Menurut makalah penelitian terbaru, ChatGPT tidak memiliki selera humor dan lelucon yang diberikannya tidak orisinal.
Dua peneliti Jerman berusaha menentukan apakah ChatGPT benar-benar lucu, mampu melakukan komunikasi lucu berdasarkan konteks, atau sekadar menyalin lelucon yang mereka temukan online tetapi tidak begitu mereka pahami.
Sebuah makalah yang dipublikasikan di situs arXiv menunjukkan bahwa jawaban atas pertanyaan ini mungkin cukup rumit. Para peneliti melakukan percobaan dan meminta robot ChatGPT untuk menjawab pertanyaan “Apakah Anda tahu ada lelucon lucu?” Yang mengherankan, lebih dari 90% lelucon tersebut sedikit dimodifikasi dari 25 lelucon aslinya.
Tiga lelucon paling populer yang ditentukan oleh para peneliti adalah sebagai berikut:
Alasan Orang-orangan Sawah menerima penghargaan tersebut karena ia unggul di bidangnya.
Mengapa tomat menjadi merah? Itu karena interaksinya dengan saus salad.
"Mengapa buku matematika dikalahkan? Karena terlalu banyak soal."
Para peneliti bertanya kepada ChatGPT mengapa 25 lelucon paling umum di dalamnya begitu lucu.
Meski chatbot bisa mengekspresikan humor, Sophie Jentzsch dan Kristian Kersting menulis di makalah "ChatGPT itu lucu, tapi tidak lucu!" Humor Masih Menantang untuk Model Bahasa Besar" menyatakan bahwa mereka "masih kesulitan membuat konten yang menarik dan orisinal". Namun mereka menemukan bahwa ChatGPT menunjukkan potensi untuk pengembangan lebih lanjut dalam membuat lelucon.
Kemajuan pesat ChatGPT telah membuat khawatir para ahli, dan para ahli etika kecerdasan buatan telah memperingatkan bahaya yang dapat ditimbulkannya terhadap pasar tenaga kerja dan umat manusia itu sendiri.
Secara khusus, model GPT-4 terbaru telah mencapai kemajuan signifikan dalam pemahaman dan penalaran konteks. Profesor ekonomi Bryan Caplan mengatakan robot tersebut membuat kemajuan luar biasa dalam ujian ekonominya, naik dari nilai D ke A hanya dalam tiga bulan.
Namun, bot tampaknya masih tertinggal jauh dalam hal melontarkan lelucon atau membantu Anda menceritakan anekdot makan malam yang lucu.
“Bahkan manusia pun kesulitan membuat lelucon baru, sebagian besar melibatkan permainan kata-kata yang pernah kita dengar dan ingat sebelumnya,” tulis para peneliti.
Namun, apakah agen AI dapat memahami apa yang dipelajarinya merupakan masalah yang sangat pelik. Pertanyaan ini sebagian besar bersifat filosofis, bukan sekadar pertanyaan teknis.
Temuan ini mengingatkan kita bahwa meskipun teknologi kecerdasan buatan berkembang pesat, teknologi kecerdasan buatan masih menghadapi tantangan besar dalam memahami dan menciptakan emosi manusia, terutama humor. Hal ini memberikan perspektif baru tentang arah pengembangan kecerdasan buatan di masa depan.