يتمتع أحدث نموذج للذكاء الاصطناعي من Google، PaliGemma2، بالقدرة على تحليل الصور وإنشاء التسميات التوضيحية، ويمكنه الإجابة على أسئلة حول مشاعر وسلوكيات الأشخاص الموجودين في الصور. يعتمد النموذج على عائلة نماذج جيما المفتوحة ويوفر وصفًا أعمق للصورة مقارنة بالتعرف التقليدي على الأشياء، وهو قادر على تحديد المشاعر وتوليد أوصاف تفصيلية تناسب السياق. ومع ذلك، فإن الآثار الأخلاقية والاجتماعية لهذه التكنولوجيا أثارت مخاوف بين الخبراء، مع التركيز على موثوقية قدراتها في التعرف على المشاعر واحتمال إساءة استخدامها. سوف تتعمق هذه المقالة في الميزات التقنية والخلافات الأخلاقية والتطوير المستقبلي لـ PaliGemma2.
أصدرت Google مؤخرًا جيلًا جديدًا من نموذج الذكاء الاصطناعي - PaliGemma2، والذي يمكنه تحليل الصور وإنشاء التسميات التوضيحية، أثناء الإجابة على الأسئلة المتعلقة بمشاعر وأفعال الأشخاص الموجودين في الصور. يعتمد PaliGemma2 على سلسلة نماذج Gemma المفتوحة من Google، مما يوفر وصفًا أعمق للصور من التعرف على الكائنات التقليدية، وقادرًا على تحديد المشاعر وإنشاء أوصاف تفصيلية تناسب السياق. ومع ذلك، في حين تبدو هذه التكنولوجيا بمثابة ابتكار رائد، فقد أثار الخبراء تحذيرات جدية بشأن آثارها الأخلاقية والاجتماعية المحتملة.
التعرف على المشاعر ليس ميزة قياسية في PaliGemma2، ولكن يتم تحقيقه من خلال الضبط الدقيق. على الرغم من أن جوجل تقول إنها أجرت "اختبارات واسعة النطاق" وتفوقت على معايير الصناعة فيما يتعلق بالتحيز الديموغرافي، إلا أن الخبراء أعربوا عن مخاوفهم بشأن موثوقية التكنولوجيا. وتعتقد البروفيسور ساندرا واشتر من جامعة أكسفورد أن "هناك مشاكل كبيرة في "قراءة" المشاعر البشرية من خلال الذكاء الاصطناعي" وأن العملية تعتمد بشكل كبير على الافتراضات، مما قد يؤدي إلى سوء التقدير والتحيز.
لطالما كانت تقنية التعرف على المشاعر محور الجدل في مجتمع التكنولوجيا. في حين أن الدراسات المبكرة مثل نظرية العواطف لبول إيكمان اقترحت ستة مشاعر أساسية، فقد أظهرت الأبحاث اللاحقة أن التعبير العاطفي يختلف بشكل كبير عبر الثقافات والسياقات. وأشار الباحث مايك كوك من جامعة كوين ماري في المملكة المتحدة إلى أن "تعقيد التجربة العاطفية يجعل الكشف الدقيق عن المشاعر شبه مستحيل". بالإضافة إلى ذلك، تظهر الأبحاث أن أنظمة تحليل تعبيرات الوجه الحالية غالبًا ما تكون متحيزة ضد مشاعر معينة، مثل الابتسام أو الاختلافات في تعبيرات الوجه عبر المجموعات العرقية.
نظرًا لأن تقنية التعرف على المشاعر أصبحت تدريجيًا تجارية، فإن خطر إساءة استخدامها قد جذب انتباه جميع الأطراف. ويشعر بعض الخبراء بالقلق من إمكانية استخدام هذا النوع من التكنولوجيا في إنفاذ القانون والتوظيف وغيرها من المجالات، مما يزيد من تفاقم عدم المساواة الاجتماعية. ويفرض مشروع قانون الذكاء الاصطناعي في الاتحاد الأوروبي بالفعل قيودا صارمة على تكنولوجيا التعرف على المشاعر، وخاصة عند استخدامها في بيئات شديدة الخطورة.
تصر Google على أن PaliGemma2 قد أخذت في الاعتبار بشكل كامل القضايا الأخلاقية وقضايا السلامة أثناء مرحلة الاختبار، وخاصة سلامة الأطفال والمحتوى. ومع ذلك، لا يزال يتعين التدقيق في مدى كفاية هذه الضمانات. وقالت الدكتورة هايدي خلاف من معهد AI Now، إن التعرف على العواطف ليس مشكلة بصرية فحسب، بل ينطوي أيضًا على خلفية اجتماعية وثقافية عميقة "لا يمكن الاستدلال على العواطف بدقة من ملامح الوجه وحدها".
ومع الإصدار العام لهذه التكنولوجيا، لن تعمل PaliGemma2 على تعزيز تطبيق الذكاء الاصطناعي في مجال فهم الصور فحسب، بل ستطرح أيضًا تحديات جديدة للأخلاقيات الاجتماعية وخصوصية البيانات، مما يتطلب اهتمام وتدخل الهيئات التنظيمية ذات الصلة بشكل عاجل.
لا شك أن ظهور PaliGemma2 قد عزز تطوير تقنية فهم الصور بالذكاء الاصطناعي، ولكنه كشف أيضًا عن القيود والمخاطر المحتملة لتقنية التعرف على المشاعر. وفي المستقبل، يحتاج تطبيق التكنولوجيا إلى إيجاد توازن بين الابتكار والأخلاق، وتعزيز الرقابة لضمان عدم إساءة استخدامها من أجل خدمة المجتمع بشكل أفضل.