لدى OpenAI وDeepMind، عملاقي الذكاء الاصطناعي، اختلافات كبيرة في أبحاثهما حول قوانين القياس (Scaling Laws) لنماذج اللغات الكبيرة (LLM). تهدف قوانين القياس إلى التنبؤ بتأثير التغييرات في معلمات النموذج وحجم البيانات وحجم الحساب على أداء النموذج، وستؤثر نتائج أبحاثها بشكل عميق على اتجاه التطوير المستقبلي للذكاء الاصطناعي وسيكون لها تأثير عميق على مستقبل التعايش بين الإنسان والآلة. سوف تستكشف هذه المقالة بعمق وجهات النظر والأساليب والمساهمات المختلفة للشركتين في أبحاث قوانين القياس، وتقدم بإيجاز التقدم البحثي المحلي ذي الصلة.
لدى OpenAI وDeepMind وجهات نظر وأساليب مختلفة في أبحاث قياس القوانين. يمكن لقوانين القياس التنبؤ بتغيرات الخسارة في النماذج الكبيرة عندما تتغير كمية المعلمات والبيانات والحسابات. وستعمل منافستهم على تعزيز تطوير الذكاء الاصطناعي والتأثير على مستقبل التعايش بين الإنسان والآلة. في عملية ما قبل التدريب لنماذج اللغات الكبيرة، هناك مفاضلة بين حجم النموذج وحجم البيانات وتكلفة التدريب. يمكن أن تساعد قوانين القياس في تحسين قرارات التصميم. يقترح DeepMind أن حجم النموذج وحجم البيانات يجب أن يتوسع بنسب متساوية، في حين يفضل OpenAI النماذج الأكبر حجمًا. قامت DeepMind بتطوير AlphaGo وAlphaFold، مما يدل على إمكانات التعلم المعزز العميق والشبكات العصبية، في حين قامت OpenAI بتطوير سلسلة نماذج GPT، مما يدل على قدرات غير عادية في النماذج التوليدية. ويبين استنتاج البحث أن العوامل الثلاثة التي تؤثر على أداء النموذج تتفاعل مع بعضها البعض، وأن نموذج Chinchilla الخاص بـ DeepMind يؤدي أداءً ممتازًا. كما ساهمت الاستخبارات المحلية Baichuan وMingde Large Model في البحث حول قوانين القياس. اقترحت شركة DeepMind طريقة تصنيف مستويات الذكاء الاصطناعي العام (AGI)، والتي كشفت عن مراحل التطور المختلفة للذكاء الاصطناعي.لا تعمل المنافسة بين OpenAI وDeepMind في أبحاث قوانين القياس على تعزيز تطوير تكنولوجيا الذكاء الاصطناعي فحسب، بل توفر أيضًا خبرة قيمة لتصميم النماذج الكبيرة المستقبلية وتحسينها. لقد ساهمت المسارات والنتائج البحثية المختلفة لكلا الطرفين في بناء نظام معرفي أكثر ثراءً وشمولاً في مجال الذكاء الاصطناعي، الأمر الذي سيعود بالنفع في نهاية المطاف على الصناعة والمجتمع بأكمله.