يدعي أحدث نموذج للذكاء الاصطناعي من Google، PaliGemma2، أنه قادر على تحديد المشاعر البشرية من خلال تحليل الصور، مما تسبب في جدل واسع النطاق. يعتمد النموذج على نموذج جيما المفتوح وهو قادر على إنشاء أوصاف صور مفصلة، بما في ذلك سلوك الشخصية وعواطفها. ومع ذلك، شكك الخبراء بشدة في الطبيعة العلمية لهذه التكنولوجيا وسلامتها، معتقدين أن نظريتها الأساسية ضعيفة وقد تنطوي على تحيز كبير ومخاطر أخلاقية.
أطلقت جوجل مؤخرًا عائلة جديدة من نماذج الذكاء الاصطناعي، PaliGemma2، والتي تتمثل الميزة الأكثر لفتًا للانتباه في ادعائها بأنها قادرة على "التعرف" على المشاعر البشرية من خلال تحليل الصور. وسرعان ما أثار هذا الادعاء نقاشًا واسع النطاق وشكوكًا جدية بين الأكاديميين وخبراء أخلاقيات التكنولوجيا.
يمكن لنظام الذكاء الاصطناعي هذا، المبني على نموذج جيما المفتوح، إنشاء أوصاف مفصلة للصور، ليس فقط التعرف البسيط على الكائنات، ولكن أيضًا محاولة وصف سلوكيات وعواطف الشخصيات في الصور. ومع ذلك، فقد أصدر العديد من الخبراء الموثوقين تحذيرات جدية حول العلم والمخاطر المحتملة لهذه التكنولوجيا.
ساندرا واشتر، أستاذة أخلاقيات البيانات من معهد أكسفورد للإنترنت، تقول بصراحة إن محاولة "قراءة" المشاعر البشرية من خلال الذكاء الاصطناعي تشبه "طلب النصيحة من كرة سحرية". تكشف هذه الاستعارة بوضوح عن عبثية تقنية التعرف على المشاعر.
في الواقع، الأساس العلمي للتعرف على المشاعر في حد ذاته هش للغاية. لقد تم التشكيك على نطاق واسع في النظرية المبكرة للمشاعر الأساسية الستة التي اقترحها عالم النفس بول إيكمان من خلال الأبحاث اللاحقة. هناك اختلافات كبيرة في الطريقة التي يعبر بها الأشخاص من الثقافات المختلفة عن مشاعرهم، مما يجعل التعرف على المشاعر العالمية مهمة شبه مستحيلة.
ويوضح مايك كوك، الباحث في الذكاء الاصطناعي من جامعة كوين ماري، الأمر بشكل أكثر صراحة: إن اكتشاف المشاعر أمر مستحيل بالمعنى العام. على الرغم من أن البشر غالبًا ما يعتقدون أنهم يستطيعون الحكم على مشاعر الآخرين من خلال الملاحظة، إلا أن هذه القدرة أكثر تعقيدًا وغير موثوقة مما يتصور.
والأمر الأكثر إثارة للقلق هو أن أنظمة الذكاء الاصطناعي هذه غالبًا ما تكون متحيزة بشكل خطير. أظهرت دراسات متعددة أن نماذج تحليل الوجه قد تنتج أحكامًا عاطفية مختلفة للأشخاص ذوي ألوان البشرة المختلفة، الأمر الذي سيؤدي بلا شك إلى تفاقم التمييز الاجتماعي القائم.
على الرغم من أن جوجل تدعي أنها اختبرت PaliGemma2 على نطاق واسع وأدت أداءً جيدًا في بعض المعايير، إلا أن الخبراء ما زالوا متشككين بشكل جدي. وهم يعتقدون أن الاختبار المحدود وحده لا يمكنه إجراء تقييم كامل للمخاطر الأخلاقية التي قد تشكلها هذه التكنولوجيا.
والأخطر من ذلك هو أن هذا النموذج المفتوح يمكن إساءة استخدامه في مجالات رئيسية مثل التوظيف والتعليم وإنفاذ القانون وما إلى ذلك، مما يؤدي إلى إلحاق ضرر فعلي بالفئات الضعيفة. وكما يحذر البروفيسور واشتر، فإن هذا قد يؤدي إلى مستقبل "جامح" مرعب: سيتم تحديد فرص العمل والقروض والتعليم للأشخاص من خلال "الحكم العاطفي" لنظام الذكاء الاصطناعي غير الموثوق.
اليوم، مع التطور السريع للذكاء الاصطناعي، أصبح الابتكار التكنولوجي مهمًا، ولكن لا يمكن تجاهل الأخلاق والسلامة. يسلط ظهور PaliGemma2 مرة أخرى الضوء على حاجتنا إلى الحفاظ على نظرة واضحة ونقدية لتكنولوجيا الذكاء الاصطناعي.
يذكرنا الجدل الدائر حول PaliGemma2 أننا بحاجة إلى التعامل مع تكنولوجيا الذكاء الاصطناعي بحذر، وخاصة في المجالات التي تنطوي على المشاعر الإنسانية والعدالة الاجتماعية. وفي التطوير المستقبلي للذكاء الاصطناعي، ينبغي إعطاء الأولوية للاعتبارات الأخلاقية لتجنب سوء استخدام التكنولوجيا والعواقب الاجتماعية التي لا يمكن إصلاحها.