Pesatnya perkembangan model bahasa besar (LLM) telah membawa kemudahan dalam perolehan informasi, namun juga membawa tantangan baru. Penelitian terbaru menunjukkan bahwa LLM berisiko menyebarkan informasi palsu ketika berhadapan dengan fakta, teori konspirasi, dan topik kontroversial. Artikel ini akan berfokus pada analisis potensi risiko model tersebut dan kemungkinan dampak negatifnya, serta mengeksplorasi arah perbaikan di masa depan.
Penelitian terbaru mengungkapkan bahwa model bahasa besar mempunyai masalah dalam menyebarkan informasi palsu, terutama ketika menjawab pernyataan tentang fakta, konspirasi, kontroversi, dll. Penelitian ini menyoroti kesalahan, kontradiksi, dan duplikasi informasi berbahaya yang sering terjadi di ChatGPT. Disebutkan bahwa konteks dan metode pertanyaan dapat mempengaruhi tingkat "keterikatan" model terhadap informasi palsu. Hal ini menimbulkan kekhawatiran tentang potensi bahaya model ini karena mereka mungkin mempelajari informasi yang salah selama proses pembelajaran.Kemajuan dalam teknologi model bahasa besar perlu dibarengi dengan penilaian risiko dan langkah-langkah mitigasi. Penelitian di masa depan harus fokus pada bagaimana meningkatkan kemampuan model dalam mengidentifikasi informasi dan mengurangi kemungkinan penyebaran informasi palsu untuk memastikan penerapannya yang aman dan andal di berbagai bidang. Hanya dengan cara ini keuntungan LLM dapat benar-benar dimanfaatkan dan potensi kerugiannya dapat dihindari.