أطلقت الحكومة البريطانية أداة ذكاء اصطناعي تسمى "تحديد هوية وأولوية قضايا الهجرة" (IPIC) لتحسين كفاءة إنفاذ قانون الهجرة ، مما تسبب في جدل واسع النطاق. تقوم الأداة بجمع المعلومات الشخصية للمهاجرين ، بما في ذلك البيانات البيومترية والعرق والحالة الصحية والسجلات الجنائية ، وتقدم توصيات لإعادة الإعادة الإلزامية. في حين تدعي الحكومة أن تتم مراجعة كل توصية يدويًا ، فإن مجموعات الحقوق تشعر بالقلق من أن هذه الخطوة يمكن أن تؤدي إلى أن تعتمد عملية صنع القرار بشكل مفرط على الخوارزميات ، مما يؤدي إلى تفاقم الاضطهاد للهجرة وزيادة مخاطر المراقبة وانتهاكات الخصوصية.
ملاحظات مصدر الصورة: يتم إنشاء الصورة بواسطة الذكاء الاصطناعي ، ومزود الخدمة المعتمد Midjourney
بعد طلب الإفصاح عن المعلومات لمدة عام ، تم كشف بعض التفاصيل حول نظام الذكاء الاصطناعي. توضح الوثائق أن النظام يجمع معلومات شخصية عن المهاجرين ، بما في ذلك البيانات البيومترية والعرق والحالة الصحية والسجلات الجنائية. على الرغم من أن الحكومة تدعي أن إدخال منظمة العفو الدولية يمكن أن يساعد في التعامل بسرعة مع قضايا الهجرة وأن كل اقتراح سيتم مراجعته من قبل البشر ، إلا أن هذا النهج قد يؤدي إلى "تبسيط" المسؤولين في اتخاذ القرارات ، خاصة عند قبول الاقتراحات الخوارزمية. لا يحتاج المسؤولون إلى تقديم أي سبب ، فقط نقرة واحدة للتأكيد.
عبرت Privacy International ، مجموعة الحقوق ، عن مخاوفها ، قائلة إن النظام جعل المسؤولين أكثر عرضة لقبول مشورة الكمبيوتر أكثر من تقييم الحالات الفردية بعمق. بالإضافة إلى ذلك ، أشار Fizza Qureshi ، الرئيس التنفيذي لشبكة حقوق الهجرة ، إلى أنه مع زيادة مشاركة البيانات ، قد تزيد أدوات الذكاء الاصطناعي من خطر مراقبة وانتهاكات الخصوصية.
تم استخدام هذه الأداة على نطاق واسع منذ 2019-2020 ، ورفضت الحكومة الكشف عن المزيد من التفاصيل التشغيلية عند مواجهة الشكوك العامة ، مشيرة إلى الشفافية المفرطة التي يمكن استخدامها للتحايل على ضوابط الهجرة. يعتقد Madeleine Sumption ، مديرة مرصد الهجرة بجامعة أكسفورد ، أنه على الرغم من أن استخدام الذكاء الاصطناعي ليس خطأ في حد ذاته ، إلا أنه من الصعب تقييم تأثيره الفعلي على اتخاذ القرارات في غياب الشفافية.
في الآونة الأخيرة ، قدم البرلمان في المملكة المتحدة أيضًا مشروع قانون بيانات جديد يسمح لاتخاذ القرارات التلقائية في معظم الحالات ، طالما أن الشخص المعني يمكنه تقديم شكوى ويحصل على تدخل بشري. أثار هذا التغيير مخاوف بشأن ما إذا كانت قرارات الهجرة المستقبلية ستعتمد أكثر على الخوارزميات.
النقاط الرئيسية:
تهدف أداة الذكاء الاصطناعى إلى تحسين كفاءة قضايا الهجرة ، ولكن تم معارضتها بشدة من قبل النقاد.
تشعر مجموعات حقوق الهجرة بالقلق من أن الأداة يمكن أن تقود المسؤولين إلى "تبسيط" القرارات وزيادة مراقبة المهاجرين.
يسمح مشروع القانون الجديد الذي اقترحه البرلمان في المملكة المتحدة لاتخاذ القرارات التلقائية ، مما يثير مخاوف عامة بشأن الشفافية في إدارة الهجرة.
يبرز تطبيق الحكومة البريطانية لأدوات الذكاء الاصطناعي IPIC التعقيد والتحديات الأخلاقية لتطبيق الذكاء الاصطناعي في إدارة الهجرة. أثناء متابعة الكفاءة ، يجب ضمان الشفافية والإنصاف لتجنب انتهاكات التمييز وحقوق الإنسان ضد الجماعات الضعيفة. تحتاج الأطر التنظيمية والقانونية المستقبلية إلى موازنة التقدم التكنولوجي والمصالح الاجتماعية.