Recentemente, a mídia tecnológica TechCrunch deu a notícia de que o Google está usando o modelo Claude AI da Anthropic para avaliar o desempenho de seu próprio modelo Gemini AI. Este movimento gerou dúvidas generalizadas sobre sua conformidade na indústria. No centro do incidente está a possível violação dos termos de serviço da Anthropic pelo Google, que proíbe explicitamente o uso não autorizado de Claude para construir produtos concorrentes ou treinar modelos de IA concorrentes. Ao mesmo tempo, o incidente também destacou as diferenças de segurança entre os diferentes modelos de IA. Claude parece ter um desempenho melhor do que o Gemini em termos de segurança.
Os contratados do Google compararam as respostas de Gemini e Claude para avaliar a precisão e a qualidade do Gemini. Claude demonstrou maior segurança em algumas situações, recusando-se a responder a avisos de perigo ou dando respostas mais cautelosas, enquanto Gêmeos teve graves violações de segurança. O Google DeepMind negou ter usado Claude para treinar o Gemini, mas admitiu que compararia o resultado de diferentes modelos para avaliação. É importante destacar que o Google é um dos maiores investidores da Anthropic, o que torna esse incidente ainda mais complicado.
Destaques:
O uso do Claude AI da Anthropic pelo Google para avaliar o Gemini pode violar seus termos de serviço.
Claude parece ser mais rigoroso do que Gêmeos no que diz respeito à segurança.
O Google DeepMind negou o uso do modelo Antrópico para treinar Gemini, ao mesmo tempo que confirmou a prática de avaliar o resultado do modelo.
A ação do Google gerou discussões sobre concorrência e parcerias entre grandes empresas de tecnologia, bem como padrões e questões éticas na avaliação de modelos de IA. No futuro, incidentes semelhantes poderão levar a indústria a padronizar ainda mais os métodos de avaliação e a utilização de dados dos modelos de IA para garantir uma concorrência leal e manter a segurança da IA. Este incidente também nos lembra que o rápido desenvolvimento da tecnologia de IA precisa de ser acompanhado de um quadro regulamentar e ético mais completo.