Keandalan dan keamanan model bahasa besar (LLM) semakin mendapat perhatian. Penelitian terbaru mengungkapkan potensi kelemahan dalam LLM, seperti duplikasi informasi berbahaya dan kontradiksi logis. Masalah-masalah ini menimbulkan tantangan serius terhadap penerapan dan pengembangan LLM dan memerlukan penelitian dan perbaikan lebih lanjut. Artikel ini akan berfokus pada studi tentang ChatGPT yang dilakukan oleh Universitas Waterloo di Kanada, yang menemukan bahwa ChatGPT telah mengulangi misinformasi berbahaya dan kontradiksi diri dalam menjawab pertanyaan, serta memberikan analisis mendalam tentang penyebab dan dampaknya.
Penelitian terbaru menemukan bahwa model bahasa besar seperti ChatGPT OpenAI sering kali mengalami misinformasi berbahaya yang berulang-ulang. Para peneliti di Universitas Waterloo di Kanada melakukan uji sistematis terhadap kemampuan pemahaman ChatGPT dan menemukan bahwa jawaban GPT-3 bertentangan dan mengulangi kesalahan informasi yang merugikan. Mereka menggunakan templat survei yang berbeda dan menanyakan lebih dari 1.200 pernyataan berbeda untuk menemukan masalahnya.Hasil penelitian ini menyoroti tantangan yang dihadapi model bahasa besar dalam aplikasi praktis, dan juga memberikan referensi penting untuk meningkatkan keandalan dan keamanan LLM di masa depan. Penelitian lebih lanjut harus fokus pada bagaimana mengurangi informasi berbahaya dan kesalahan logis dalam keluaran LLM untuk memastikan penerapannya yang aman dan andal di berbagai bidang. Penelitian selanjutnya diharapkan dapat menemukan solusi yang lebih efektif dan meningkatkan kualitas dan keamanan LLM.