في الآونة الأخيرة، وقع حادث مثير للجدل في مؤتمر NeurIPS للذكاء الاصطناعي بسبب قيام أحد المتحدثين بإبداء ملاحظات متحيزة عنصريًا. وذكرت روزاليند بيكارد، الأستاذة في مختبر الوسائط بمعهد ماساتشوستس للتكنولوجيا، "طالبة صينية طُردت من إحدى الجامعات المرموقة" ونقلت عن الطالبة في كلمتها، وعلى الرغم من أنها قدمت لاحقا تفسيرات إضافية، إلا أن التصريحات لا تزال تثير ضجة في الأوساط الأكاديمية والتكنولوجيا أثارت الدوائر مناقشات واسعة النطاق حول التحيز العنصري والحساسية الثقافية في الذكاء الاصطناعي. وسرعان ما انتشرت الحادثة على وسائل التواصل الاجتماعي، حيث أعرب العديد من الخبراء في مجال الذكاء الاصطناعي عن استيائهم الشديد.
في مؤتمر الذكاء الاصطناعي NeurIPS رفيع المستوى، أثار خطاب روزاليند بيكارد، أستاذ مختبر الوسائط في معهد ماساتشوستس للتكنولوجيا، ردود فعل قوية في الصناعة بسبب تصريحات تنطوي على تحيز عنصري.
وفي خطاب رئيسي بعنوان "كيفية تحسين الأمور الأكثر أهمية"، ذكر بيكارد "طالباً صينياً طُرد من إحدى الجامعات المرموقة"، مستشهداً بادعاء الطالب بأن "لا أحد في المدرسة يدرس الأخلاق أو القيم". وعلى الرغم من أنها أضافت لاحقًا أن "معظم الصينيين الذين أعرفهم صادقون وأخلاقيون"، إلا أن هذه التصريحات لا تزال تثير جدلاً واسع النطاق في الصناعة.
تولى صن جياو، عالم Google DeepMind، زمام المبادرة في مشاركة شرائح المحاضرة على منصة التواصل الاجتماعي Far East، وأرسل تعليقات صن وقال بصراحة: "هذا تحيز عنصري واضح. كيف يمكن أن يحدث هذا لـ NeurIPS؟"
خلال جلسة الأسئلة والأجوبة بعد الاجتماع، أشار أحد الحاضرين إلى أن هذه كانت المرة الوحيدة في خطاب بيكارد التي تم فيها ذكر جنسية شخص ما ووجد أنها "مسيئة بعض الشيء". واقترح أن يقوم بيكارد بإزالة الإشارة من الخطابات المستقبلية، وهو الأمر الذي يبدو أن بيكارد يوافق عليه.
وسرعان ما أصدر منظمو مؤتمر NeurIPS بيانًا، قائلين فيه بجدية: "نود أن نشير على وجه التحديد إلى الملاحظات التي تم الإدلاء بها في الخطاب المدعو بعد ظهر هذا اليوم. لن تتسامح NeurIPS أبدًا مع هذا ولا يتماشى مع قواعد السلوك الخاصة بنا. سوف نتواصل مباشرة مع المتحدث لحل هذه المشكلة، وتلتزم شركة NeurIPS بخلق بيئة متنوعة وشاملة حيث يتم التعامل مع الجميع على قدم المساواة."
وأصدر بيكارد في وقت لاحق اعتذارا، معربا عن "الأسف" لذكر جنسية الطالب. اعترفت: "أدرك أن هذا لم يكن ضروريًا، ولا علاقة له بوجهة نظري، وخلق ارتباطًا سلبيًا غير متوقع. أعتذر عن ذلك وأشعر بحزن شديد بسبب الضيق الذي سببته هذه الحادثة. سأتعلم من هذه التجربة". نرحب بالاقتراحات حول كيفية إصلاح المجتمع."
يسلط الحادث الضوء مرة أخرى على التحديات التي لا تزال التكنولوجيا والأوساط الأكاديمية تواجهها في القضاء على التحيز العنصري. اليوم، مع التطور السريع للذكاء الاصطناعي، أصبحت كيفية تجنب التمييز وتعزيز التسامح بينما أصبح الابتكار التكنولوجي قضية رئيسية تحتاج الصناعة إلى حلها بشكل عاجل.
ومن الجدير بالذكر أن هذا الجدل لا يستهدف تكنولوجيا الذكاء الاصطناعي في حد ذاتها، بل يعكس المشاكل العميقة التي لا تزال موجودة في الدائرة الأكاديمية في التعامل مع الاختلافات الثقافية والحساسية العرقية. قد يدفع هذا الحادث الصناعة إلى مزيد من التفكير في الآليات ذات الصلة وتحسينها، والعمل بشكل مشترك على إنشاء نظام بيئي أكاديمي أكثر انفتاحًا واحترامًا.
لقد جذبت هذه الحادثة اهتمامًا واسع النطاق ودقت أيضًا ناقوس الخطر فيما يتعلق بمجال الذكاء الاصطناعي، مذكّرة الجميع بأنه أثناء متابعة التقدم العلمي والتكنولوجي، يجب علينا أيضًا الاهتمام بالأخلاقيات والحساسية الثقافية، وبناء بيئة أكاديمية أكثر شمولاً وعدالة، و تعزيز التنمية الصحية للذكاء الاصطناعي.