جلب نموذج LLMLingua-2 الذي تم إصداره حديثًا من Microsoft تحسينات كبيرة في كفاءة تطبيقات الذكاء الاصطناعي. يمكن لهذا النموذج ضغط مطالبات الذكاء الاصطناعي بنسبة تصل إلى 80%، وإزالة المعلومات الزائدة بشكل فعال مع الاحتفاظ بالمحتوى الرئيسي، وبالتالي تقليل تكاليف الحوسبة وتأخير الاستجابة. لا تعمل هذه التقنية المتقدمة على تحسين سرعة تشغيل تطبيقات الذكاء الاصطناعي فحسب، بل توفر أيضًا للمستخدمين وقتًا وموارد ثمينة.
أصدرت شركة Microsoft Research نموذج LLMLlingua-2، الذي يمكنه ضغط مطالبات الذكاء الاصطناعي بنسبة تصل إلى 80%. يقلل النموذج من التكلفة وزمن الوصول عن طريق إزالة الكلمات أو العلامات غير الضرورية بذكاء من المطالبات الطويلة مع الاحتفاظ بالمعلومات الأساسية. تظهر التقييمات أن LLMLingua-2 يتفوق في الأداء على الخطوط الأساسية القوية ويُظهر تعميمًا قويًا عبر نماذج لغوية مختلفة. تم دمج النموذج في إطاري عمل RAG LangChain وLlamaIndex، مما يوفر الوقت والتكلفة للمستخدمين.
يبشر ظهور نموذج LLMLingua-2 بتقدم كبير في تقنية التحسين السريع للذكاء الاصطناعي، فهو يتمتع بمزايا كبيرة في تقليل التكاليف وتحسين الكفاءة، مما يضع أساسًا متينًا لنشر تطبيقات الذكاء الاصطناعي على نطاق واسع في المستقبل. كما أن تكاملها مع LangChain وLlamaIndex يسهل أيضًا استخدام المطورين والمستخدمين.