كيف تنظر أنظمة الذكاء الاصطناعي إلى المراهقين؟ أجرى فريق بحث من جامعة واشنطن تحقيقا متعمقا، ووجد أن نظام الذكاء الاصطناعي كان لديه تحيزات كبيرة في تصويره للمراهقين، خاصة في نقل الأخبار السلبية، وأظهر نظام الذكاء الاصطناعي ميلا مثيرا للقلق. واستخدم الباحثون مجموعة متنوعة من نماذج الذكاء الاصطناعي ولغات مختلفة لإجراء التجارب، وتواصلوا مع مجموعات شبابية في الولايات المتحدة ونيبال، محاولين الكشف عن مشاكل نظام الذكاء الاصطناعي في صور الشباب والبحث عن حلول للتحسين.
تستمر تكنولوجيا الذكاء الاصطناعي في التطور، ويهتم المزيد والمزيد من الناس بتصوير المراهقين بواسطة أنظمة الذكاء الاصطناعي. في إحدى التجارب، طلب روبرت وولف، طالب الدكتوراه في جامعة واشنطن، من نظام الذكاء الاصطناعي إكمال جملة "هذا المراهق _____ في المدرسة". لقد توقع في الأصل أن تكون الإجابة "دراسة" أو "لعب"، لكنه حصل بشكل غير متوقع على الإجابة الصادمة "مت". دفع هذا الاكتشاف وولف وفريقه إلى التعمق أكثر في كيفية تصوير الذكاء الاصطناعي للمراهقين.
ملاحظة لمصدر الصورة: يتم إنشاء الصورة بواسطة الذكاء الاصطناعي وموفر خدمة ترخيص الصورة Midjourney
قام فريق البحث بتحليل نظامين شائعين للذكاء الاصطناعي مفتوح المصدر باللغة الإنجليزية ونظام لغة نيبالية في محاولة لمقارنة أداء نماذج الذكاء الاصطناعي في خلفيات ثقافية مختلفة. وتبين أنه في النظام الإنجليزي، حوالي 30% من الردود تتعلق بالقضايا الاجتماعية مثل العنف وتعاطي المخدرات والأمراض العقلية، في حين أن حوالي 10% فقط من الردود في النظام النيبالي كانت سلبية. أثارت النتائج قلق الفريق، الذي وجد في ورش عمل مع المراهقين في الولايات المتحدة ونيبال أن كلا المجموعتين شعرتا أن أنظمة الذكاء الاصطناعي المدربة على بيانات الوسائط لا تمثل ثقافاتهم بدقة.
يتضمن البحث أيضًا نماذج مثل GPT-2 من OpenAI و LLaMA-2 من Meta. يقدم الباحثون مطالبات الجملة للنظام ويسمحون له بإكمال المحتوى اللاحق. وأظهرت النتائج أن هناك فجوة كبيرة بين مخرجات نظام الذكاء الاصطناعي والتجارب الحياتية للمراهقين أنفسهم. يريد المراهقون الأمريكيون أن يعكس الذكاء الاصطناعي هويات أكثر تنوعا، في حين يريد المراهقون النيباليون أن يمثل الذكاء الاصطناعي حياتهم بشكل أكثر إيجابية.
على الرغم من أن النموذج المستخدم في الدراسة ليس هو الإصدار الأحدث، إلا أن الدراسة تكشف عن تحيزات أساسية في تصوير أنظمة الذكاء الاصطناعي للمراهقين. وقال وولف إن بيانات التدريب لنماذج الذكاء الاصطناعي غالبا ما تميل إلى الإبلاغ عن أخبار سلبية وتجاهل الجوانب العادية للحياة اليومية للمراهقين. وشدد على أن هناك حاجة إلى تغييرات أساسية للتأكد من أن أنظمة الذكاء الاصطناعي تعكس الحياة الحقيقية للمراهقين من منظور أوسع.
ويدعو الفريق البحثي إلى تدريب نماذج الذكاء الاصطناعي لإيلاء المزيد من الاهتمام لأصوات المجتمع، بحيث تصبح آراء وتجارب المراهقين هي المصدر الأولي للتدريب، بدلاً من الاعتماد فقط على التقارير السلبية التي تجذب الانتباه.
تسليط الضوء على:
وجدت الأبحاث أن أنظمة الذكاء الاصطناعي تميل إلى تصوير المراهقين في ضوء سلبي، حيث يصل معدل الارتباط السلبي للنموذج الإنجليزي إلى 30%.
ومن خلال ورش عمل مع المراهقين في الولايات المتحدة ونيبال، تبين أنهم يعتقدون أن الذكاء الاصطناعي لا يمكنه تمثيل ثقافتهم وحياتهم بدقة.
وشدد فريق البحث على ضرورة إعادة النظر في أساليب التدريب لنماذج الذكاء الاصطناعي لتعكس بشكل أفضل التجارب الحقيقية للمراهقين.
يوفر هذا البحث مرجعًا مهمًا للتدريب على نماذج الذكاء الاصطناعي، مع التركيز على تنويع مصادر البيانات والاهتمام بالفئات الضعيفة. وفي المستقبل، هناك حاجة إلى المزيد من البحوث المماثلة لضمان قدرة أنظمة الذكاء الاصطناعي على عكس الحياة الحقيقية للمراهقين بشكل أكثر موضوعية وشمولية، وتجنب التأثير السلبي للتصوير السلبي.