O Google atualizou recentemente seus termos de uso de IA generativa para definir claramente as aplicações de IA em áreas de “alto risco”, como saúde. Os novos termos permitem que os clientes utilizem a IA generativa do Google para a tomada automatizada de decisões nestas áreas, mas apenas com supervisão humana. A mudança levantou preocupações no campo da IA no que se refere à aplicação da IA na tomada de decisões de alto risco, bem como considerações sobre possíveis preconceitos e questões éticas. A decisão da Google responde, até certo ponto, às preocupações da sociedade sobre as aplicações de IA e reflete os seus esforços para equilibrar as aplicações de tecnologia de IA e a gestão de riscos.
O Google atualizou recentemente seus termos de uso para IA generativa, esclarecendo que os clientes podem implantar suas ferramentas de IA generativa para “tomada de decisão automatizada” em áreas de “alto risco”, como saúde, mas apenas com supervisão humana. De acordo com a versão mais recente da “Política de Uso Proibido de IA Generativa” do Google, lançada na terça-feira, os clientes podem usar a IA generativa do Google para tomar “decisões automatizadas” que podem ter um “impacto adverso material” nos direitos individuais. Os clientes podem usar a IA generativa do Google para tomar decisões sobre emprego, habitação, seguros, assistência social e outras áreas de “alto risco”, desde que haja alguma forma de supervisão humana. No domínio da IA, a tomada de decisões automatizada refere-se a decisões tomadas por sistemas de IA com base em dados factuais e dados inferidos. Por exemplo, um sistema pode decidir automaticamente se deve aprovar um pedido de empréstimo ou selecionar candidatos a empregos. Anteriormente, o rascunho dos termos do Google sugeria uma proibição geral do uso da IA generativa da empresa na tomada de decisões automatizadas de alto risco. Mas o Google disse ao TechCrunch que os clientes sempre podem usar sua IA generativa para automatizar decisões, mesmo para aplicações de alto risco, desde que haja supervisão humana. “Tal como acontece com todas as áreas de alto risco, nossos requisitos de supervisão humana estão sempre presentes em nossas políticas”, disse um porta-voz do Google quando contatado por e-mail “Estamos reclassificando alguns itens [nos termos] e listando-os de forma mais clara. para dar aos clientes uma imagem mais clara. "Os principais concorrentes de IA do Google, OpenAI e Anthropic, têm regulamentações mais rígidas sobre o uso de IA na tomada de decisões automatizadas de alto risco. Por exemplo, a OpenAI proíbe a utilização dos seus serviços para decisões automatizadas relacionadas com crédito, emprego, habitação, educação, pontuação social e seguros. A Anthropic permite que sua IA seja usada para automatizar a tomada de decisões em áreas jurídicas, de seguros, de saúde e outras áreas de alto risco, mas somente se for supervisionada por um “profissional qualificado” e exigir que os clientes divulguem que estão usando a IA. para este propósito. A IA que automatiza a tomada de decisões que afectam os indivíduos tem estado sob escrutínio dos reguladores, que expressaram preocupações sobre os resultados tendenciosos que a tecnologia poderia criar. A investigação sugere que a IA utilizada para aprovar pedidos de crédito e hipotecas, por exemplo, poderia perpetuar a discriminação histórica. A Human Rights Watch, uma organização sem fins lucrativos, apelou à proibição dos sistemas de “pontuação social”, que, segundo ela, podem prejudicar o acesso das pessoas ao apoio da segurança social, comprometer a sua privacidade e traçar perfis tendenciosos. Os sistemas de IA de alto risco, incluindo aqueles que tomam decisões de crédito pessoal e de emprego, enfrentam a regulamentação mais rigorosa ao abrigo da Lei de Inteligência Artificial da UE. Os fornecedores destes sistemas devem registar-se na base de dados, realizar a gestão da qualidade e dos riscos, empregar supervisores humanos e reportar incidentes às autoridades competentes, entre outros requisitos. Nos Estados Unidos, o Colorado aprovou recentemente uma lei que exige que os criadores de IA divulguem informações sobre sistemas de IA de “alto risco” e emitam uma declaração resumindo as capacidades e limitações do sistema. Entretanto, a cidade de Nova Iorque proíbe os empregadores de utilizarem ferramentas automatizadas para selecionar candidatos para decisões de emprego, a menos que a ferramenta tenha sido auditada quanto a preconceitos no ano anterior. Desta vez o Google esclareceu os termos de uso de IA, indicando a atitude da empresa em relação à supervisão de aplicações de IA. Permitir a tomada de decisões automatizada em áreas de alto risco, mas enfatizar a importância da supervisão manual, não só reflete o potencial das aplicações de tecnologia de IA, mas também reflete a vigilância contra riscos potenciais.
A atualização do Google nos termos de uso da IA, embora enfatize a supervisão manual, também reflete os desafios e explorações que as empresas de tecnologia enfrentam na governança da IA. Como equilibrar a inovação e o risco no contexto do rápido desenvolvimento da tecnologia de IA será uma questão importante que exigirá atenção contínua no futuro.