Recentemente, o trabalho de melhoria do modelo Gemini AI do Google causou polêmica. De acordo com o TechCrunch, os empreiteiros do Google compararam as respostas do Gemini com os resultados do concorrente da Anthropic, Claude, para avaliar o desempenho do Gemini. A medida levanta questões sobre se o Google usou os dados de Claude sem autorização e se isso violou os termos de serviços empresariais da Anthropic, uma vez que a Anthropic é um dos principais investidores do Google. O incidente destaca a intensidade da concorrência no campo da IA e a importância do uso de dados e das questões de conformidade.
A concorrência entre os gigantes da tecnologia no domínio da IA está a tornar-se cada vez mais acirrada e uma notícia recente trouxe mais uma vez a tendência da concorrência da indústria para o primeiro plano. De acordo com comunicações internas obtidas pelo TechCrunch, o empreiteiro responsável por melhorar o modelo de inteligência artificial Gemini do Google estava comparando suas respostas com os resultados do modelo concorrente da Anthropic, Claude. A medida levantou questões sobre a conformidade do Google com a autorização da Anthropic para usar Claude para testes.
À medida que as empresas tecnológicas competem para desenvolver melhores modelos de IA, o desempenho do modelo é geralmente avaliado através de benchmarks da indústria, em vez de os empreiteiros gastarem muita energia avaliando as respostas de IA dos concorrentes. No entanto, de acordo com relatórios, os contratantes da Gemini são obrigados a pontuar cada resposta que veem com base em vários critérios, incluindo autenticidade e verbosidade. O contratante tem até 30 minutos para decidir se a resposta de Gêmeos ou de Claude é melhor.
Os empreiteiros observaram que as respostas de Claude pareciam enfatizar mais a segurança do que as de Gemini, mostram os registros de bate-papo interno. Um empreiteiro disse: “Claude tem as configurações de segurança mais rigorosas de todos os modelos de IA. Em alguns casos, Claude não responderá a palavras que considera inseguras, como jogar com um assistente de IA diferente”. Em outro teste, Claude evitou responder a uma determinada palavra imediata, e a resposta de Gêmeos foi sinalizada como uma “grave violação de segurança” por incluir “nudez e moderação”.
Os termos de serviços empresariais da Antrópico proíbem especificamente os clientes de acessar Claude “para construir produtos ou serviços concorrentes” ou “treinar modelos de IA concorrentes” sem aprovação. É importante notar que o Google é o maior investidor da Anthropic. Este cenário aumentou as dúvidas do mundo exterior sobre a conformidade comportamental do Google.
Em resposta, McNamara, porta-voz do Google DeepMind (responsável pelo Gemini), disse que o DeepMind “compara os resultados do modelo” para avaliação, mas não treina o Gemini no modelo antrópico. “É claro que, como é prática da indústria, em alguns casos comparamos os resultados dos modelos como parte do processo de avaliação”, disse McNamara. “No entanto, qualquer sugestão de que usamos o modelo Antrópico para treinar Gemini é imprecisa”.
Embora o Google negue ter usado Claude para treinar Gemini, sua retórica de “comparar os resultados do modelo” ainda é ambígua e não pode eliminar completamente as dúvidas externas. O incidente levantou mais uma vez preocupações sobre o uso e conformidade de dados no desenvolvimento de modelos de IA. No campo ferozmente competitivo da IA, como manter a concorrência leal e respeitar os direitos de propriedade intelectual tornar-se-á uma questão importante que requer atenção e discussão contínuas durante o desenvolvimento da indústria.
A explicação do Google sobre o incidente não eliminou completamente as dúvidas do público, o que reflete a concorrência acirrada no campo da IA e a seriedade dos desafios de conformidade de dados. No futuro, a indústria necessita de estabelecer regras e padrões mais claros para garantir uma concorrência leal e a protecção da propriedade intelectual.