في السنوات الأخيرة، أصبحت تقنية التعرف على المشاعر مستخدمة على نطاق واسع بشكل متزايد في المجال التجاري، لكن قضاياها العلمية والأخلاقية مثيرة للجدل إلى حد كبير. تدعي العديد من الشركات أن برنامج التعرف على المشاعر الذي يعتمد على الذكاء الاصطناعي يمكنه الحكم بدقة على المشاعر البشرية، لكن العديد من الدراسات أشارت إلى أن هذه التكنولوجيا بها عيوب خطيرة وأن دقتها أقل بكثير مما تم الإعلان عنه.
في السنوات الأخيرة، ظهرت تكنولوجيا التعرف على المشاعر تدريجيا في صناعة التكنولوجيا. أطلقت العديد من شركات التكنولوجيا برنامجًا للتعرف على المشاعر مدعومًا بالذكاء الاصطناعي، مدعية أنها قادرة على تحديد الحالة العاطفية للشخص، بما في ذلك السعادة والحزن والغضب والإحباط، من البيانات البيومترية. ومع ذلك، تظهر مجموعة متزايدة من الأبحاث العلمية أن هذه التقنيات ليست موثوقة كما هو معلن عنها.
ملاحظة لمصدر الصورة: تم إنشاء الصورة بواسطة الذكاء الاصطناعي، والصورة معتمدة من قبل مزود الخدمة Midjourney
وفقًا لأحدث الأبحاث، تواجه تقنية التعرف على المشاعر مشكلات خطيرة تتعلق بالصلاحية العلمية. تدعي العديد من الشركات أن هذه الأنظمة موضوعية ومتجذرة في الأساليب العلمية، لكنها في الواقع تعتمد غالبًا على نظريات عفا عليها الزمن. تفترض هذه النظريات أن العواطف يمكن قياسها كميا ولها نفس المظاهر في جميع أنحاء العالم، ولكن في الواقع، فإن التعبير عن العواطف يتأثر بشدة بالثقافة والبيئة والفروق الفردية. على سبيل المثال، قد ترتفع رطوبة جلد الشخص أو تنخفض أو تبقى كما هي عندما يكون غاضبًا، مما يجعل من المستحيل على مؤشر بيولوجي واحد الحكم بدقة على المشاعر.
وفي الوقت نفسه، تشكل تقنيات التعرف على المشاعر أيضًا مخاطر قانونية واجتماعية، خاصة في مكان العمل. وبموجب لوائح الاتحاد الأوروبي الجديدة، يُحظر استخدام أنظمة الذكاء الاصطناعي التي تستنتج المشاعر في مكان العمل إلا لأسباب طبية أو تتعلق بالسلامة. وفي أستراليا، لم يتم تطبيق التنظيم في هذا المجال بعد. في حين حاولت بعض الشركات استخدام تحليل عواطف الوجه في التوظيف، أثارت فعالية هذه التقنيات وأخلاقياتها تساؤلات واسعة النطاق.
بالإضافة إلى ذلك، فإن تقنية التعرف على المشاعر لديها أيضًا مشكلات تحيز محتملة. قد تظهر هذه الأنظمة تمييزًا ضد الأشخاص من مختلف الأعراق والأجناس والإعاقات عند التعرف على المشاعر. على سبيل المثال، تظهر بعض الأبحاث أن أنظمة التعرف على المشاعر من المرجح أن تحدد الوجوه السوداء على أنها غاضبة، على الرغم من أن كلا الشخصين يبتسمان بنفس المستوى.
وبينما تعترف شركات التكنولوجيا بمسألة التحيز في التعرف على المشاعر، فإنها تؤكد على أن التحيز ينبع في المقام الأول من مجموعات البيانات المستخدمة لتدريب هذه الأنظمة. ردًا على هذه المشكلة، قالت شركة inTruth Technologies إنها ملتزمة باستخدام مجموعات بيانات متنوعة وشاملة لتقليل التحيز.
الرأي العام حول تقنية التعرف على المشاعر ليس متفائلاً. أظهر استطلاع حديث أن 12.9% فقط من البالغين الأستراليين يؤيدون استخدام تقنية التعرف على المشاعر القائمة على الوجه في مكان العمل، حيث ينظر الكثيرون إليها على أنها انتهاك للخصوصية.
باختصار، يواجه تطوير تقنية التعرف على المشاعر تحديات هائلة. وتتطلب صلاحيتها العلمية، والمخاطر الأخلاقية، وقضايا التحيز الاجتماعي، اهتمامًا واسع النطاق ومناقشة متعمقة. قبل تطبيق التكنولوجيا، يجب تحديد أولويات آثارها السلبية المحتملة ووضع التدابير التنظيمية المقابلة.