O uso pelo governo britânico da ferramenta de inteligência artificial “Identificação e Priorização de Casos de Imigração” (IPIC) causou polêmica. A ferramenta destina-se a tornar a fiscalização da imigração mais eficiente, mas tem enfrentado reações adversas de grupos de direitos humanos devido ao seu potencial para exacerbar a opressão dos imigrantes e à sua dependência excessiva de algoritmos. O editor do Downcodes explicará detalhadamente os meandros deste incidente e analisará seus riscos potenciais e impacto social.
Recentemente, o governo britânico introduziu uma ferramenta de inteligência artificial chamada "Identificação e Priorização de Casos de Imigração" (IPIC) na gestão da imigração. O objetivo desta ferramenta é melhorar a eficiência da fiscalização da imigração e fazer recomendações para a remoção forçada de imigrantes, incluindo adultos e crianças. No entanto, grupos de defesa dos direitos humanos opuseram-se fortemente a esta abordagem, afirmando que poderia exacerbar a opressão dos imigrantes e tornar o processo de tomada de decisões demasiado algorítmico.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
Após um pedido de divulgação que durou um ano, alguns detalhes sobre o sistema de IA foram revelados. Os documentos mostram que o sistema coleta informações pessoais sobre imigrantes, incluindo dados biométricos, raça, estado de saúde e antecedentes criminais. Embora o governo afirme que a introdução da inteligência artificial pode ajudar a acelerar os casos de imigração e que todas as recomendações serão revistas por humanos, os críticos acreditam que esta abordagem pode levar os funcionários a "simplificarem" o processo de tomada de decisão, especialmente ao aceitarem recomendações algorítmicas. , os funcionários não precisam fornecer nenhum motivo e apenas confirmar com um clique.
O grupo de direitos humanos Privacy International expressou preocupação com o facto de o sistema tornar os funcionários mais propensos a aceitar recomendações informáticas em vez de avaliações aprofundadas de casos individuais. Além disso, Fizza Qureshi, CEO da Immigrant Rights Network, destacou que à medida que aumenta a partilha de dados, as ferramentas de IA podem aumentar o risco de vigilância dos imigrantes e de violações da privacidade.
A ferramenta tem sido amplamente utilizada desde 2019-20, e o governo recusou-se a revelar mais detalhes operacionais face ao cepticismo público, alegando que demasiada transparência poderia ser usada para contornar os controlos de imigração. Madeleine Sumption, diretora do Observatório das Migrações da Universidade de Oxford, acredita que, embora a utilização da inteligência artificial não seja errada em si, na ausência de transparência, é difícil avaliar o seu impacto real na tomada de decisões.
Recentemente, o Parlamento do Reino Unido também propôs um novo projeto de lei sobre dados que permitiria a tomada de decisões automatizada na maioria dos casos, desde que as pessoas envolvidas pudessem recorrer e obter intervenção humana. A mudança levanta preocupações sobre se as futuras decisões de imigração dependerão mais fortemente de algoritmos.
A utilização do sistema IPIC pelo governo do Reino Unido levantou preocupações éticas e sociais generalizadas, e a transparência e a responsabilização são cruciais no que diz respeito à utilização da inteligência artificial na gestão da imigração. No futuro, a forma de salvaguardar os direitos e interesses dos imigrantes, assegurando simultaneamente a eficiência, ainda requer mais discussão e melhoria das leis e regulamentos relevantes.