أصدرت Google مؤخرًا إطارًا جديدًا يسمى ASPIRE، والذي يهدف إلى تحسين دقة نماذج اللغات الكبيرة (LLM) في المواقف منخفضة الثقة. يحقق هذا الإطار التنبؤ الانتقائي للتقييم الذاتي من خلال الجمع بين تقنيات مثل ضبط المهام وأخذ عينات الإجابات، مما يؤدي بشكل فعال إلى حل مشكلة معايرة الثقة في LLM. هذا الاختراق له أهمية كبيرة لتحسين الموثوقية والتطبيق العملي لماجستير في القانون، مما يمثل مرحلة جديدة في تطوير تكنولوجيا LLM.
أطلقت Google مؤخرًا إطار عمل ASPIRE، المصمم لمساعدة النماذج اللغوية الكبيرة على إصدار الأحكام الصحيحة في ظل ظروف منخفضة الثقة. يعتمد الإطار على التقييم الذاتي للتنبؤات الانتقائية، والتي يتم تنفيذها من خلال وحدات فنية مثل ضبط المهام وأخذ عينات الإجابات. تظهر البيانات التجريبية أن أداء ASPIRE جيد في مجموعات البيانات المختلفة، ويسد الفجوة في معايرة الثقة لنماذج اللغة الكبيرة، ويحسن استقرار النموذج ودقته. سيؤدي إطلاق ASPIRE إلى توفير أداء أفضل وخدمات أكثر موثوقية لنماذج اللغات الكبيرة في مختلف المجالات.
ويشير التطبيق الناجح لإطار عمل ASPIRE إلى أن نماذج اللغات الكبيرة ستكون أكثر موثوقية ودقة في التطبيقات العملية، مما يوفر اتجاهات وإمكانيات جديدة للتطوير المستقبلي لتكنولوجيا الذكاء الاصطناعي. مما لا شك فيه أن اختراقها في معايرة الثقة سيعزز تطبيق وتعميم LLM في المزيد من المجالات.