O Google atualizou recentemente seus termos de uso para IA generativa, permitindo que os clientes usem suas ferramentas de IA generativa para tomada de decisão automatizada em áreas de alto risco, como assistência médica e emprego, mas apenas com supervisão humana. Esta medida desencadeou discussões na indústria sobre a aplicação da IA em áreas de alto risco e preocupações sobre a supervisão relacionada. A ação do Google contrasta com seus concorrentes OpenAI e Anthropic, que têm restrições mais rígidas à tomada de decisões automatizadas de alto risco. Esta atualização também destaca a necessidade urgente de regulamentação da IA a nível mundial e o desafio de equilibrar a inovação da IA com os riscos potenciais.
O Google atualizou recentemente seus termos de uso para IA generativa, permitindo explicitamente que os clientes usem suas ferramentas de IA generativa para “tomada de decisão automatizada” em áreas de “alto risco”, como saúde e emprego, desde que seja necessária supervisão humana. Essa mudança se reflete na política recém-lançada da empresa que proíbe o uso de IA generativa.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
De acordo com a política atualizada, os clientes podem usar a IA generativa do Google, com supervisão, para tomar decisões automatizadas que possam ter um “impacto adverso material” nos direitos de um indivíduo. Estas áreas de alto risco incluem emprego, habitação, seguros, assistência social, etc. A disposição anterior parecia proibir totalmente a tomada de decisões automatizadas de alto risco, mas o Google disse que na verdade permitiu o uso de IA generativa para tais decisões sob supervisão humana desde o início.
Um porta-voz do Google respondeu à mídia dizendo: “A exigência de supervisão humana sempre existiu em nossas políticas e cobre todas as áreas de alto risco. Acabamos de reclassificar alguns termos e enumerar alguns exemplos de forma mais clara para os usuários entenderem”.
Em comparação com a abordagem do Google, os principais concorrentes do Google, como OpenAI e Anthropic, têm regulamentações mais rígidas sobre a tomada de decisões automatizadas de alto risco. A OpenAI proíbe o uso de seus serviços para decisões automatizadas relacionadas a crédito, emprego, habitação, educação, pontuação social e seguros. A Anthropic permite que sua IA tome decisões automatizadas em áreas de alto risco, como direito, seguros e assistência médica, mas apenas sob a supervisão de “profissionais qualificados” e exige que os clientes a informem claramente sobre o uso de IA para tais decisões.
No que diz respeito aos sistemas de IA para a tomada de decisões automatizadas, os reguladores manifestaram preocupação com o facto de tais tecnologias poderem levar a resultados tendenciosos. Por exemplo, a investigação mostra que a IA pode perpetuar a discriminação histórica nas aprovações de pedidos de empréstimos e hipotecas.
A Human Rights Watch e outras organizações sem fins lucrativos apelaram especificamente à proibição dos sistemas de “pontuação social”, argumentando que ameaçam o acesso das pessoas à segurança social e podem invadir a privacidade e criar perfis tendenciosos.
Na UE, os sistemas de IA de alto risco, incluindo aqueles que envolvem crédito pessoal e decisões de emprego, enfrentam a supervisão mais rigorosa ao abrigo da Lei da IA. Os fornecedores destes sistemas devem registar-se em bases de dados, realizar a gestão da qualidade e dos riscos, empregar supervisores humanos e comunicar incidentes às autoridades relevantes, entre outras coisas.
Nos Estados Unidos, o Colorado aprovou recentemente uma lei que exige que os criadores de IA divulguem informações sobre sistemas de IA de "alto risco" e publiquem um resumo das capacidades e limitações do sistema. Entretanto, a cidade de Nova Iorque proíbe os empregadores de utilizarem ferramentas automatizadas para selecionar candidatos, a menos que a ferramenta tenha sido submetida a uma auditoria tendenciosa no ano passado.
Destaques:
O Google permite o uso de IA generativa em áreas de alto risco, mas requer supervisão humana.
Outras empresas de IA, como OpenAI e Anthropic, têm restrições mais rigorosas sobre decisões de alto risco.
Os reguladores de vários países estão a rever os sistemas de IA para a tomada de decisões automatizada, a fim de evitar resultados tendenciosos.
A atualização da Google aos termos de utilização da IA generativa desencadeou discussões generalizadas sobre a ética e a regulamentação da IA. Governos e instituições em todo o mundo também estão a explorar ativamente como regular melhor a tecnologia de IA para garantir o seu desenvolvimento seguro e responsável. No futuro, a aplicação da IA em domínios de alto risco enfrentará uma revisão e supervisão mais rigorosas.