أثار استخدام الحكومة البريطانية لأداة الذكاء الاصطناعي "تحديد حالات الهجرة وتحديد أولوياتها" (IPIC) جدلاً. وتهدف هذه الأداة إلى جعل إنفاذ قوانين الهجرة أكثر كفاءة، لكنها واجهت ردود فعل عنيفة من جماعات حقوق الإنسان بسبب قدرتها على تفاقم اضطهاد المهاجرين واعتمادها المفرط على الخوارزميات. سيقوم محرر Downcodes بشرح خصوصيات وعموميات هذه الحادثة بالتفصيل، وتحليل مخاطرها المحتملة وتأثيرها الاجتماعي.
ومؤخرًا، قدمت الحكومة البريطانية أداة للذكاء الاصطناعي تسمى "تحديد حالات الهجرة وتحديد أولوياتها" (IPIC) في إدارة الهجرة. الغرض من هذه الأداة هو تحسين كفاءة إنفاذ قوانين الهجرة وتقديم توصيات للترحيل القسري للمهاجرين، بما في ذلك البالغين والأطفال. ومع ذلك، عارضت جماعات حقوق الإنسان بشدة هذا النهج، قائلة إنه قد يؤدي إلى تفاقم اضطهاد المهاجرين ويجعل عملية صنع القرار خوارزمية للغاية.
ملاحظة لمصدر الصورة: يتم إنشاء الصورة بواسطة الذكاء الاصطناعي ومزود خدمة ترخيص الصورة Midjourney
وبعد طلب الكشف لمدة عام، تم الكشف عن بعض التفاصيل حول نظام الذكاء الاصطناعي. وتظهر الوثائق أن النظام يجمع معلومات شخصية عن المهاجرين، بما في ذلك البيانات البيومترية والعرق والحالة الصحية والسجلات الجنائية. وعلى الرغم من أن الحكومة تدعي أن إدخال الذكاء الاصطناعي يمكن أن يساعد في تسريع قضايا الهجرة وأن كل توصية ستتم مراجعتها من قبل البشر، إلا أن النقاد يعتقدون أن هذا النهج قد يؤدي إلى "تبسيط" المسؤولين لعملية صنع القرار، خاصة عند قبول التوصيات الخوارزمية. ، لا يحتاج المسؤولون إلى تقديم أي أسباب ويحتاجون فقط إلى التأكيد بنقرة واحدة.
وقد أعربت منظمة الخصوصية الدولية المعنية بحقوق الإنسان عن قلقها من أن النظام يجعل المسؤولين أكثر عرضة لقبول توصيات الكمبيوتر بدلاً من التقييم المتعمق للحالات الفردية. بالإضافة إلى ذلك، أشارت فيزا قريشي، الرئيس التنفيذي لشبكة حقوق المهاجرين، إلى أنه مع زيادة تبادل البيانات، قد تزيد أدوات الذكاء الاصطناعي من خطر مراقبة المهاجرين وانتهاكات الخصوصية.
وقد تم استخدام هذه الأداة على نطاق واسع منذ 2019-2020، ورفضت الحكومة الكشف عن المزيد من التفاصيل التشغيلية في مواجهة الشكوك العامة على أساس أنه يمكن استخدام الكثير من الشفافية للتحايل على ضوابط الهجرة. وترى مادلين سومبشن، مديرة مرصد الهجرة بجامعة أكسفورد، أنه على الرغم من أن استخدام الذكاء الاصطناعي ليس خطأ في حد ذاته، إلا أنه في غياب الشفافية، من الصعب تقييم تأثيره الفعلي على عملية صنع القرار.
ومؤخرا، اقترح برلمان المملكة المتحدة أيضا مشروع قانون جديد للبيانات من شأنه أن يسمح باتخاذ القرار الآلي في أغلب الحالات، ما دام الأشخاص المعنيون قادرين على الاستئناف والحصول على التدخل البشري. ويثير هذا التغيير مخاوف بشأن ما إذا كانت قرارات الهجرة المستقبلية ستعتمد بشكل أكبر على الخوارزميات.
أثار استخدام حكومة المملكة المتحدة لنظام IPIC مخاوف أخلاقية واجتماعية واسعة النطاق، وتعد الشفافية والمساءلة أمرًا بالغ الأهمية فيما يتعلق باستخدام الذكاء الاصطناعي في إدارة الهجرة. وفي المستقبل، لا تزال كيفية حماية حقوق ومصالح المهاجرين مع ضمان الكفاءة تتطلب المزيد من المناقشة وتحسين القوانين واللوائح ذات الصلة.