Использование британским правительством инструмента искусственного интеллекта «Идентификация и приоритезация иммиграционных дел» (IPIC) вызвало споры. Этот инструмент предназначен для повышения эффективности иммиграционного контроля, но он столкнулся с негативной реакцией со стороны правозащитных групп из-за его способности усугублять притеснение иммигрантов и чрезмерной зависимости от алгоритмов. Редактор Downcodes подробно объяснит все тонкости этого инцидента, а также проанализирует его потенциальные риски и социальные последствия.
Недавно британское правительство представило в управлении иммиграцией инструмент искусственного интеллекта под названием «Идентификация и приоритезация иммиграционных дел» (IPIC). Целью этого инструмента является повышение эффективности иммиграционного контроля и выработка рекомендаций по принудительному выдворению иммигрантов, включая взрослых и детей. Однако правозащитные группы решительно выступили против такого подхода, заявив, что он может усугубить притеснение иммигрантов и сделать процесс принятия решений слишком алгоритмичным.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
После годичного запроса на раскрытие информации были раскрыты некоторые подробности о системе ИИ. Документы показывают, что система собирает личную информацию об иммигрантах, включая биометрические данные, расу, состояние здоровья и судимости. Хотя правительство утверждает, что внедрение искусственного интеллекта может помочь ускорить иммиграционные дела и что каждая рекомендация будет проверена людьми, критики полагают, что такой подход может привести к тому, что чиновники «упростят» процесс принятия решений, особенно при принятии алгоритмических рекомендаций. , чиновникам не нужно указывать какие-либо причины, а достаточно подтвердить одним щелчком мыши.
Правозащитная группа Privacy International выразила обеспокоенность тем, что система заставляет чиновников с большей вероятностью принимать компьютерные рекомендации, а не глубокую оценку отдельных случаев. Кроме того, Физза Куреши, генеральный директор Сети по правам иммигрантов, отметил, что по мере расширения обмена данными инструменты искусственного интеллекта могут увеличить риск слежки за иммигрантами и нарушения конфиденциальности.
Этот инструмент широко использовался с 2019-2020 годов, и правительство отказалось раскрыть более подробную информацию о работе перед лицом общественного скептицизма на том основании, что слишком большая прозрачность может быть использована для обхода иммиграционного контроля. Мадлен Сампшн, директор Миграционной обсерватории Оксфордского университета, считает, что, хотя использование искусственного интеллекта само по себе не является неправильным, в отсутствие прозрачности трудно оценить его фактическое влияние на принятие решений.
Недавно парламент Великобритании также предложил новый законопроект о данных, который позволит автоматизировать принятие решений в большинстве случаев, при условии, что вовлеченные люди смогут подать апелляцию и добиться вмешательства человека. Это изменение вызывает обеспокоенность по поводу того, будут ли будущие иммиграционные решения в большей степени зависеть от алгоритмов.
Использование правительством Великобритании системы IPIC вызвало широко распространенные этические и социальные проблемы, а прозрачность и подотчетность имеют решающее значение в использовании искусственного интеллекта в управлении иммиграцией. В будущем вопрос о том, как защитить права и интересы иммигрантов, обеспечивая при этом эффективность, по-прежнему требует дальнейшего обсуждения и совершенствования соответствующих законов и правил.