Le gouvernement britannique a lancé un outil d'intelligence artificielle appelée «Identification et priorité pour les cas d'immigration» (IPIC) pour améliorer l'efficacité de l'application de la loi de l'immigration, ce qui a provoqué une controverse généralisée. L'outil recueille des informations personnelles sur les immigrants, y compris les données biométriques, la race, l'état de santé et les casiers judiciaires, et fait des recommandations pour le rapatriement obligatoire. Bien que le gouvernement affirme que chaque recommandation est examinée manuellement, les groupes de défense des droits craignent que la décision ne puisse conduire à la prise de décision trop dépendante des algorithmes, à l'oppression de l'oppression de l'immigration et à l'augmentation du risque de surveillance et de violations de la vie privée.
Remarques de la source d'image: L'image est générée par l'IA, et le fournisseur de services autorisé l'image MidJourney
Après une demande d'un an de divulgation d'informations, certains détails sur le système d'IA ont été exposés. Les documents montrent que le système recueille des informations personnelles sur les immigrants, y compris les données biométriques, la race, l'état de santé et les casiers judiciaires. Bien que le gouvernement affirme que l'introduction de l'IA peut aider à gérer rapidement les cas d'immigration et que chaque suggestion sera examinée par les humains, les critiques soutiennent que cette approche peut conduire à des processus de décision «simplifiant», en particulier lors de l'acceptation de suggestions algorithmiques. Les fonctionnaires n'ont pas besoin de fournir une raison, un seul clic pour confirmer.
Privacy International, le groupe de défense des droits, a exprimé ses préoccupations, affirmant que le système a rendu les fonctionnaires plus susceptibles d'accepter des conseils informatiques que d'évaluer les cas individuels en profondeur. En outre, Fizza Qureshi, PDG de Immigration Rights Network, a souligné que, à mesure que le partage de données augmente, les outils d'IA peuvent augmenter le risque de surveillance et de violations de la vie privée.
Cet outil est largement utilisé depuis 2019-2020, et le gouvernement a refusé de divulguer plus de détails opérationnels face à des doutes publics, citant une transparence excessive qui pourrait être utilisée pour contourner les contrôles de l'immigration. Madeleine Westion, directrice de l'Oxford University Immigration Observator, estime que si l'utilisation de l'intelligence artificielle n'est pas erronée en soi, il est difficile d'évaluer son impact réel sur la prise de décision en l'absence de transparence.
Récemment, le Parlement britannique a également présenté une nouvelle facture de données qui permet une prise de décision automatique dans la plupart des cas, tant que la personne concernée peut déposer une plainte et obtenir une intervention humaine. Ce changement a soulevé des préoccupations quant à savoir si les futures décisions d'immigration s'appuieront davantage sur les algorithmes.
Points clés:
L'outil d'IA vise à améliorer l'efficacité des cas d'immigration, mais a été fortement opposé par les critiques.
Les groupes de défense des droits de l'immigration craignent que l'outil puisse conduire les responsables à «simplifier» les décisions et à accroître la surveillance des immigrants.
Le nouveau projet de loi proposé par le Parlement britannique permet la prise de décision automatique, ce qui soulève des préoccupations publiques concernant la transparence dans la gestion de l'immigration.
L'application par le gouvernement britannique des outils d'intelligence artificielle IPIC met en évidence la complexité et les défis éthiques de l'application de l'intelligence artificielle dans la gestion de l'immigration. Tout en poursuivant l'efficacité, la transparence et l'équité doivent être assurées pour éviter la discrimination et les violations des droits de l'homme contre les groupes vulnérables. Les futurs cadres réglementaires et juridiques doivent équilibrer les progrès technologiques et les intérêts sociaux.