لقد حظيت موثوقية وأمان نماذج اللغات الكبيرة (LLMs) باهتمام متزايد. كشفت الأبحاث الحديثة عن عيوب محتملة في LLM، مثل ازدواجية المعلومات الضارة والتناقضات المنطقية. تشكل هذه المشاكل تحديات خطيرة لتطبيق وتطوير LLM وتتطلب المزيد من البحث والتحسين. سيركز هذا المقال على دراسة حول ChatGPT أجرتها جامعة واترلو في كندا، والتي وجدت أن ChatGPT كرر المعلومات الخاطئة الضارة والتناقض الذاتي في الإجابة على الأسئلة، ويقدم تحليلًا متعمقًا لأسبابه وآثاره.
لقد وجدت الأبحاث الحديثة أن النماذج اللغوية الكبيرة مثل ChatGPT من OpenAI غالبًا ما تعاني من المعلومات الخاطئة الضارة المتكررة. أجرى الباحثون في جامعة واترلو في كندا اختبارًا منهجيًا لقدرات فهم ChatGPT، ووجدوا أن GPT-3 تناقض نفسها في إجاباتها وتكرر المعلومات الخاطئة الضارة. استخدموا نماذج استطلاع مختلفة وطلبوا أكثر من 1200 عبارة مختلفة لاكتشاف المشكلة.تسلط نتائج هذه الدراسة الضوء على التحديات التي تواجهها النماذج اللغوية الكبيرة في التطبيقات العملية، كما توفر مرجعًا مهمًا لتحسين موثوقية وأمن LLM في المستقبل. يجب أن يركز المزيد من البحث على كيفية تقليل المعلومات الضارة والأخطاء المنطقية في مخرجات LLM لضمان تطبيقها الآمن والموثوق في مختلف المجالات. ومن المأمول أن تتمكن الأبحاث المستقبلية من إيجاد حلول أكثر فعالية وتحسين جودة وسلامة LLM.