في السنوات الأخيرة، تطورت تكنولوجيا نماذج اللغة واسعة النطاق (LLM) بسرعة، وظهرت نماذج مختلفة واحدة تلو الأخرى. ستركز هذه المقالة على التقدم الأخير لنموذج RNN Eagle7B وبنية RWKV في تحدي هيمنة نموذج Transformer. يعمل Eagle7B جيدًا في المعايير متعددة اللغات ويقلل بشكل كبير من تكاليف الاستدلال، بينما تجمع بنية RWKV بين مزايا RNN وTransformer لتحقيق أداء مماثل لـ GPT. لقد جلبت هذه الاختراقات إمكانيات جديدة لتكنولوجيا الذكاء الاصطناعي وبشرت أيضًا بتغيير في اتجاه تطوير تكنولوجيا LLM في المستقبل.
مع ظهور النماذج الكبيرة، يتحدى طراز RNN Eagle7B هيمنة Transformer. يحقق النموذج أداءً فائقًا وفقًا لمعايير متعددة اللغات مع تقليل تكاليف الاستدلال بعشرات المرات. ويلتزم الفريق ببناء ذكاء اصطناعي شامل، يدعم 25 لغة حول العالم ويغطي 4 مليارات شخص. أصبحت أهمية مقياس البيانات لتحسين أداء النموذج بارزة بشكل متزايد، ويجب أن تكون البنية أكثر كفاءة وقابلة للتطوير. من خلال تقديم مزايا RNN وTransformer، تحقق بنية RWKV أداءً على مستوى GPT وتجلب إمكانيات جديدة لتكنولوجيا الذكاء الاصطناعي.يمثل ظهور بنية Eagle7B وRWKV ظهور منافسين جدد وطرق تقنية في مجال نماذج اللغات واسعة النطاق، مما يوفر المزيد من الإمكانيات لتطوير الذكاء الاصطناعي في المستقبل. فهي لا تحقق اختراقات في الأداء فحسب، بل الأهم من ذلك أنها تساهم في تقليل التكاليف وتحسين قابلية التوسع، وهو أمر له أهمية كبيرة في تعميم تكنولوجيا الذكاء الاصطناعي وتطبيقها. ونحن نتطلع إلى ظهور المزيد من الابتكارات المماثلة في المستقبل.