أحدث نتائج الأبحاث التي أجراها فريقا Meta وNYU ملفتة للنظر، فقد اقترحوا طريقة مبتكرة لجعل النماذج الكبيرة "تكافئ نفسها" وطبقتها بنجاح على نموذج Llama2. وقد مكّن هذا التقدم التكنولوجي Llama2 من التفوق على النماذج الرائدة مثل GPT-40613 وClaude2 وGemini Pro في اختبارات قياس الأداء المتعددة، ليصبح محور مجال الذكاء الاصطناعي الحالي. يمثل هذا الإنجاز تقدمًا كبيرًا في تقنية النماذج الكبيرة ذاتية التكرار للذكاء الاصطناعي ويبشر باتجاه جديد لتطوير الذكاء الاصطناعي في المستقبل.
في الآونة الأخيرة، اقترح فريقا ميتا وجامعة نيويورك طريقة للعارضات الكبيرات "لمكافأة أنفسهن". من خلال هذه الطريقة، هزمت Llama2 النماذج الرائدة في GPT-40613 وClaude2 وGeminiPro بضربة واحدة، لتصبح محط اهتمام عالم الذكاء الاصطناعي. تظهر الأبحاث أن هذا العمل الذي قامت به ميتا يمثل خطوة كبيرة إلى الأمام في تطوير حدود النماذج الكبيرة للتكرار الذاتي للذكاء الاصطناعي.
توفر نتيجة البحث التي أجراها فريق Meta وجامعة نيويورك أفكارًا وأساليب جديدة للتكرار الذاتي لنماذج الذكاء الاصطناعي الكبيرة في المستقبل، ومن المتوقع أن تؤدي إلى تحسين أداء وكفاءة نماذج الذكاء الاصطناعي وتعزيز التنمية المستدامة لتكنولوجيا الذكاء الاصطناعي . لقد قدم نجاح Llama2 أيضًا خبرة ومرجعًا قيمًا لفرق أبحاث الذكاء الاصطناعي الأخرى، وأعتقد أننا سنشهد في المستقبل القريب ظهور نماذج ذكاء اصطناعي أكثر تقدمًا تعتمد على آليات المكافأة الذاتية.