Peneliti Tencent baru-baru ini menerbitkan makalah yang mengungkapkan cara-cara baru untuk meningkatkan kinerja model bahasa besar. Studi ini menemukan bahwa dengan mengintegrasikan beberapa model bahasa kecil (LLM), kinerja model secara keseluruhan dapat ditingkatkan secara signifikan tanpa memerlukan kerangka kerja kolaborasi yang rumit, bahkan melampaui satu LLM besar. Makalah ini menguraikan temuan ini dan mengusulkan dua strategi pengoptimalan: pengambilan sampel dan pemungutan suara bertahap, serta pengambilan sampel dan pemungutan suara bertingkat, untuk lebih meningkatkan efisiensi dan akurasi model. Penelitian ini memberikan ide-ide baru untuk pengembangan model bahasa besar dan menunjukkan arah konstruksi dan optimalisasi model di masa depan.
Peneliti Tencent telah menemukan bahwa performa model bahasa besar akan meningkat seiring dengan bertambahnya jumlah agen yang dipakai, tanpa memerlukan kerangka kerja kolaborasi agen multi-LLM yang kompleks. Hasil eksperimen menunjukkan bahwa gabungan beberapa LM kecil dapat melampaui kinerja LM besar. Makalah ini mengeksplorasi hubungan antara peningkatan kinerja dan kesulitan masalah, dan mengusulkan dua strategi optimasi: pengambilan sampel dan pemungutan suara bertahap, serta pengambilan sampel dan pemungutan suara bertingkat.
Hasil penelitian ini sangat penting dan memberikan arahan serta ide baru untuk optimalisasi model bahasa besar. Di masa depan, melalui penelitian lebih lanjut dan penyempurnaan kedua strategi optimasi ini, performa model bahasa besar dapat ditingkatkan dengan lebih baik dan diterapkan di berbagai bidang yang lebih luas. Hal ini akan mendorong perkembangan teknologi kecerdasan buatan dan memberikan lebih banyak kemungkinan bagi semua lapisan masyarakat.