في السنوات الأخيرة، تطورت تكنولوجيا نماذج اللغة الكبيرة (LLM) بسرعة، وأظهر الذكاء الاصطناعي التوليدي قدرات إبداعية مثيرة للإعجاب. ومع ذلك، لا تزال آلياتها الجوهرية وقدراتها المعرفية بحاجة إلى مزيد من الاستكشاف. ستناقش هذه المقالة دراسة حول قدرة فهم نماذج الذكاء الاصطناعي التوليدي، من خلال التحليل المقارن التجريبي، وتكشف هذه الدراسة عن اختلافات أداء هذه النماذج في المواقف المختلفة، مما يوفر مرجعًا قيمًا لنا لفهم حدود الذكاء الاصطناعي.
لقد أظهرت نماذج الذكاء الاصطناعي التوليدية مثل GPT-4 وMidjourney قدرات توليدية مقنعة. ومع ذلك، وجدت الأبحاث أن هذه النماذج تواجه تحديات في فهم المحتوى الذي تنتجه، والذي يختلف عن الذكاء البشري. على وجه التحديد، وجد الباحثون من خلال التجارب أن هذه النماذج حققت أداءً جيدًا في التجارب الانتقائية، لكنها غالبًا ما ارتكبت أخطاء في التجارب الاستفهامية. يدعو هذا البحث إلى توخي الحذر عند التعمق في الذكاء الاصطناعي والإدراك، حيث يمكن للنماذج إنشاء محتوى ولكن لا يمكنها فهمه بشكل كامل.بشكل عام، تذكرنا هذه الدراسة أنه على الرغم من أن الذكاء الاصطناعي التوليدي قد حقق تقدمًا كبيرًا في إنشاء المحتوى، إلا أن قدرته على فهم المحتوى الذي ينشئه لا تزال محدودة. تحتاج الأبحاث المستقبلية إلى مواصلة استكشاف الآلية المعرفية للذكاء الاصطناعي لتعزيز التطور الصحي لتكنولوجيا الذكاء الاصطناعي وتجنب المخاطر المحتملة. نحن بحاجة إلى النظر إلى قدرات الذكاء الاصطناعي بعناية أكبر والسعي المستمر لسد الفجوة بين الذكاء الاصطناعي والذكاء البشري.