نشر باحثون في Tencent مؤخرًا بحثًا يكشف عن طرق جديدة لتحسين أداء نماذج اللغات الكبيرة. وجدت الدراسة أنه من خلال دمج نماذج اللغات الصغيرة المتعددة (LLMs)، يمكن تحسين الأداء العام للنموذج بشكل كبير دون الحاجة إلى أطر تعاون معقدة، حتى تجاوز ماجستير واحد كبير. تشرح الورقة هذه النتيجة وتقترح استراتيجيتين للتحسين: أخذ العينات والتصويت التدريجي، وأخذ العينات الطبقية والتصويت، لزيادة تحسين كفاءة النموذج ودقته. يقدم هذا البحث أفكارًا جديدة لتطوير نماذج اللغة الكبيرة ويشير إلى الاتجاه لبناء النماذج وتحسينها في المستقبل.
لقد وجد باحثو Tencent أن أداء النماذج اللغوية الكبيرة سيزداد مع زيادة عدد الوكلاء الذين تم إنشاء مثيل لهم، دون الحاجة إلى إطار تعاون معقد متعدد الوكلاء. تظهر النتائج التجريبية أن مجموعات LMs الصغيرة المتعددة يمكن أن تتجاوز أداء LMs الأكبر. تستكشف هذه الورقة العلاقة بين تحسين الأداء وصعوبة المشكلة، وتقترح استراتيجيتين للتحسين: أخذ العينات والتصويت التدريجي، وأخذ العينات الطبقية والتصويت.
تعتبر نتائج البحث ذات أهمية كبيرة وتوفر اتجاهات وأفكارًا جديدة لتحسين نماذج اللغة الكبيرة. في المستقبل، ومن خلال إجراء المزيد من البحث وتحسين استراتيجيتي التحسين هاتين، يمكن تحسين أداء نماذج اللغة الكبيرة وتطبيقها في نطاق أوسع من المجالات بشكل أفضل. وهذا من شأنه أن يعزز تطوير تكنولوجيا الذكاء الاصطناعي ويجلب المزيد من الإمكانيات لجميع مناحي الحياة.