L'utilisation par le gouvernement britannique de l'outil d'intelligence artificielle « Identification et priorisation des cas d'immigration » (IPIC) a suscité la controverse. L’outil est destiné à rendre l’application des lois en matière d’immigration plus efficace, mais il a fait face à des réactions négatives de la part des groupes de défense des droits en raison de son potentiel à exacerber l’oppression des immigrants et de sa dépendance excessive aux algorithmes. L'éditeur de Downcodes expliquera en détail les tenants et les aboutissants de cet incident, et analysera ses risques potentiels et son impact social.
Récemment, le gouvernement britannique a introduit un outil d'intelligence artificielle appelé « Identifying and Prioritizing Immigration Cases » (IPIC) dans la gestion de l'immigration. L'objectif de cet outil est d'améliorer l'efficacité de l'application des lois en matière d'immigration et de formuler des recommandations en matière d'expulsion forcée des immigrants, y compris des adultes et des enfants. Cependant, les groupes de défense des droits se sont fermement opposés à cette approche, affirmant qu’elle pourrait exacerber l’oppression des immigrants et rendre le processus décisionnel trop algorithmique.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Après une demande de divulgation d'un an, certains détails sur le système d'IA ont été révélés. Les documents montrent que le système collecte des informations personnelles sur les immigrants, notamment des données biométriques, la race, l'état de santé et le casier judiciaire. Bien que le gouvernement prétende que l'introduction de l'intelligence artificielle peut contribuer à accélérer les dossiers d'immigration et que chaque recommandation sera examinée par des humains, les critiques estiment que cette approche pourrait conduire les responsables à « simplifier » le processus décisionnel, en particulier lorsqu'ils acceptent des recommandations algorithmiques. , les fonctionnaires n'ont pas besoin de fournir de raisons et n'ont qu'à confirmer en un seul clic.
L'association de défense des droits Privacy International s'est inquiétée du fait que le système rend les fonctionnaires plus susceptibles d'accepter les recommandations informatiques plutôt que l'évaluation approfondie des cas individuels. En outre, Fizza Qureshi, PDG du Immigrant Rights Network, a souligné qu'à mesure que le partage de données augmente, les outils d'IA peuvent augmenter le risque de surveillance des immigrants et de violations de la vie privée.
L’outil est largement utilisé depuis 2019-20, et le gouvernement a refusé de révéler plus de détails opérationnels face au scepticisme du public, au motif qu’une trop grande transparence pourrait être utilisée pour contourner les contrôles d’immigration. Madeleine Sumption, directrice de l'Observatoire des migrations de l'Université d'Oxford, estime que si l'utilisation de l'intelligence artificielle n'est pas mauvaise en soi, en l'absence de transparence, il est difficile d'évaluer son impact réel sur la prise de décision.
Récemment, le Parlement britannique a également proposé un nouveau projet de loi sur les données qui permettrait une prise de décision automatisée dans la plupart des cas, à condition que les personnes concernées puissent faire appel et obtenir une intervention humaine. Ce changement soulève des inquiétudes quant à savoir si les futures décisions en matière d’immigration s’appuieront davantage sur des algorithmes.
L’utilisation du système IPIC par le gouvernement britannique a soulevé de nombreuses préoccupations éthiques et sociales, et la transparence et la responsabilité sont cruciales en ce qui concerne l’utilisation de l’intelligence artificielle dans la gestion de l’immigration. À l'avenir, la manière de sauvegarder les droits et les intérêts des immigrés tout en garantissant l'efficacité nécessitera encore des discussions plus approfondies et l'amélioration des lois et réglementations pertinentes.