Para peneliti di Universitas Stanford telah membuat terobosan yang mengesankan! Mereka menggunakan data Wikipedia untuk melatih model bahasa berskala besar yang disebut WikiChat, dan berhasil memecahkan masalah "ilusi" yang mengganggu banyak model besar. WikiChat berkinerja baik dalam akurasi faktual dan metrik utama lainnya, bahkan melampaui GPT-4 dan memimpin model serupa lainnya dalam banyak aspek. Penelitian ini menetapkan tolok ukur baru bagi keandalan dan kepraktisan model bahasa besar, serta menandai arah baru bagi pengembangan kecerdasan buatan di masa depan.
Para peneliti di Universitas Stanford menggunakan data Wikipedia untuk melatih model besar, bernama WikiChat. Melalui pengoptimalan dan peningkatan, mereka berhasil memecahkan masalah halusinasi model besar dan berkinerja baik dalam akurasi faktual dan indikator lainnya. Performa terbaiknya melampaui GPT-4 dan mengungguli model lain dalam berbagai aspek.
Keberhasilan WikiChat tidak hanya terletak pada kinerjanya yang luar biasa, namun yang lebih penting adalah ia memberikan ide-ide dan metode-metode baru untuk memecahkan masalah ilusi model besar. Hasil penelitian ini akan sangat mendorong penerapan model bahasa berskala besar di berbagai bidang dan meletakkan dasar yang kokoh bagi pengembangan teknologi kecerdasan buatan yang lebih andal dan kredibel. Perlu dinantikan lebih banyak penerapan dan peningkatan berdasarkan hal ini di masa depan .