Recentemente, o TechCrunch expôs documentos internos do Google, mostrando que o Google está usando prestadores de serviços para comparar e testar sua IA Gemini e a IA Claude da Anthropic, gerando polêmica sobre conformidade. O documento mostra que a contratada precisa avaliar a qualidade das respostas das duas IAs sob múltiplos critérios e elogia muito a segurança de Claude. Esta medida pode violar os termos de serviço da Anthropic, já que o Google é um grande investidor na Anthropic e os termos proíbem o uso não autorizado de Claude para desenvolver produtos concorrentes ou treinar modelos de IA concorrentes.
O Google está fazendo com que empreiteiros avaliem sua IA Gemini em comparação com Claude da Anthropic, de acordo com comunicações internas obtidas pelo TechCrunch, uma medida que levanta questões sobre conformidade.
O documento mostra que o empreiteiro responsável por melhorar o Gemini precisa comparar e avaliar a qualidade das respostas do Gemini e do Claude com base em múltiplos critérios, como autenticidade e rigor, em 30 minutos. Os empreiteiros descobriram recentemente referências explícitas a Claude na plataforma de revisão interna do Google, incluindo as palavras “Eu sou Claude, criado pela Anthropic”.
As discussões internas revelaram que os empreiteiros notaram as práticas de segurança mais rigorosas de Claude. Um empreiteiro disse que “as configurações de segurança de Claude são as mais rigorosas entre todos os modelos de IA”. Em alguns casos, quando as respostas de Gemini foram sinalizadas como “graves violações de segurança” porque envolviam “nudez e restrição”, Claude simplesmente se recusou a responder às solicitações relevantes.
É importante notar que, como principal investidor da Anthropic, a abordagem do Google pode violar os termos de serviço da Anthropic. Os termos proíbem explicitamente o acesso não aprovado a Claude para “construir produtos concorrentes” ou “treinar modelos de IA concorrentes”. Quando questionada se foi autorizada pela Anthropic, a porta-voz do Google DeepMind, Shira McNamara, recusou-se a responder diretamente.
McNamara disse que embora DeepMind “compare os resultados do modelo” para avaliação, ele negou ter usado o modelo antrópico para treinar Gemini. “Isso está de acordo com a prática padrão da indústria”, disse ela, “mas qualquer afirmação de que usamos modelos antrópicos para treinar Gêmeos é imprecisa”.
Anteriormente, o Google exigia que os contratantes de produtos de IA avaliassem as respostas da Gemini fora de suas áreas de especialização, levantando preocupações entre os contratantes de que a IA poderia produzir informações imprecisas em áreas sensíveis, como saúde.
Até o momento desta publicação, um porta-voz da Anthropic não havia comentado o assunto.
O teste comparativo de Gemini e Claude do Google atraiu atenção generalizada, e seus problemas de conformidade e impacto na indústria de IA ainda requerem observação mais aprofundada. A resposta do Google não eliminou completamente as preocupações, a resposta oficial da Anthropic ainda não foi divulgada e o incidente ainda está em andamento.