นักวิจัยของ Tencent เพิ่งตีพิมพ์บทความที่เปิดเผยวิธีใหม่ในการปรับปรุงประสิทธิภาพของแบบจำลองภาษาขนาดใหญ่ ผลการศึกษาพบว่า ด้วยการบูรณาการโมเดลภาษาขนาดเล็ก (LLM) หลายๆ ตัว ประสิทธิภาพของโมเดลโดยรวมสามารถปรับปรุงได้อย่างมีนัยสำคัญ โดยไม่จำเป็นต้องใช้เฟรมเวิร์กการทำงานร่วมกันที่ซับซ้อน แม้จะเหนือกว่า LLM ขนาดใหญ่เพียงตัวเดียวก็ตาม บทความนี้อธิบายรายละเอียดเกี่ยวกับการค้นพบนี้และเสนอกลยุทธ์การปรับให้เหมาะสมสองกลยุทธ์: การสุ่มตัวอย่างและการลงคะแนนแบบขั้นตอน และการสุ่มตัวอย่างและการลงคะแนนแบบแบ่งชั้น เพื่อปรับปรุงประสิทธิภาพและความแม่นยำของแบบจำลองเพิ่มเติม งานวิจัยนี้ให้แนวคิดใหม่สำหรับการพัฒนาแบบจำลองภาษาขนาดใหญ่ และชี้ให้เห็นทิศทางสำหรับการสร้างแบบจำลองและการเพิ่มประสิทธิภาพในอนาคต
นักวิจัยของ Tencent พบว่าประสิทธิภาพของโมเดลภาษาขนาดใหญ่จะเพิ่มขึ้นตามจำนวนเอเจนต์ที่สร้างอินสแตนซ์เพิ่มขึ้น โดยไม่จำเป็นต้องใช้เฟรมเวิร์กการทำงานร่วมกันของเอเจนต์ multi-LLM ที่ซับซ้อน ผลการทดลองแสดงให้เห็นว่าชุด LM ขนาดเล็กหลายชุดสามารถมีประสิทธิภาพเหนือกว่าประสิทธิภาพของ LM ขนาดใหญ่ได้ บทความนี้สำรวจความสัมพันธ์ระหว่างการปรับปรุงประสิทธิภาพและความยากของปัญหา และเสนอกลยุทธ์การปรับให้เหมาะสมสองกลยุทธ์: การสุ่มตัวอย่างและการลงคะแนนแบบค่อยเป็นค่อยไป และการสุ่มตัวอย่างและการลงคะแนนแบบแบ่งชั้น
ผลการวิจัยมีความสำคัญอย่างยิ่ง และให้แนวทางและแนวคิดใหม่ๆ สำหรับการเพิ่มประสิทธิภาพของแบบจำลองภาษาขนาดใหญ่ ในอนาคต ด้วยการวิจัยเพิ่มเติมและปรับปรุงกลยุทธ์การปรับให้เหมาะสมทั้งสองนี้ ประสิทธิภาพของโมเดลภาษาขนาดใหญ่สามารถปรับปรุงและนำไปใช้ในสาขาที่กว้างขึ้นได้ดีขึ้น สิ่งนี้จะส่งเสริมการพัฒนาเทคโนโลยีปัญญาประดิษฐ์และนำความเป็นไปได้มาสู่ทุกสาขาอาชีพ