Récemment, TechCrunch a exposé des documents internes de Google, montrant que Google fait appel à des sous-traitants pour comparer et tester son IA Gemini et l'IA Claude d'Anthropic, déclenchant une controverse sur la conformité. Le document montre que l'entrepreneur doit évaluer la qualité des réponses des deux IA selon de multiples critères et fait l'éloge de la sécurité de Claude. Cette décision peut violer les conditions de service d'Anthropic, car Google est un investisseur majeur dans Anthropic, et les conditions interdisent l'utilisation non autorisée de Claude pour développer des produits concurrents ou former des modèles d'IA concurrents.
Google demande à des sous-traitants d'évaluer son Gemini AI par rapport à Claude d'Anthropic, selon des communications internes obtenues par TechCrunch, soulevant des questions de conformité.
Le document montre que l'entrepreneur chargé d'améliorer Gemini doit comparer et évaluer la qualité des réponses de Gemini et de Claude en fonction de multiples critères tels que l'authenticité et la rigueur dans un délai de 30 minutes. Des entrepreneurs ont récemment découvert des références explicites à Claude sur la plateforme d'évaluation interne de Google, notamment les mots "Je suis Claude, créé par Anthropic".
Des discussions internes ont révélé que les entrepreneurs avaient remarqué les pratiques de sécurité plus strictes de Claude. Un entrepreneur a déclaré que « les paramètres de sécurité de Claude sont les plus stricts parmi tous les modèles d'IA ». Dans certains cas, lorsque les réponses de Gemini étaient signalées comme des « violations graves de la sécurité » parce qu'elles impliquaient « de la nudité et de la contention », Claude a simplement refusé de répondre aux invites pertinentes.
Il convient de noter qu’en tant qu’investisseur majeur d’Anthropic, l’approche de Google peut violer les conditions de service d’Anthropic. Les conditions interdisent explicitement l'accès non approuvé à Claude pour « créer des produits concurrents » ou « former des modèles d'IA concurrents ». Lorsqu'on lui a demandé si cela avait été autorisé par Anthropic, la porte-parole de Google DeepMind, Shira McNamara, a refusé de répondre directement.
McNamara a déclaré que même si DeepMind « compare les résultats du modèle » à des fins d'évaluation, il a nié avoir utilisé le modèle Anthropic pour entraîner Gemini. "Cela est conforme aux pratiques standard de l'industrie", a-t-elle déclaré, "mais toute affirmation selon laquelle nous avons utilisé des modèles anthropiques pour entraîner les Gémeaux est inexacte."
Auparavant, Google demandait aux sous-traitants de produits d'IA d'évaluer les réponses de Gemini en dehors de ses domaines d'expertise, ce qui faisait craindre aux sous-traitants que l'IA puisse produire des informations inexactes dans des domaines sensibles tels que les soins de santé.
Au moment de mettre sous presse, un porte-parole d’Anthropic n’avait fait aucun commentaire sur la question.
Le test comparatif de Google entre Gemini et Claude a attiré une large attention, et ses problèmes de conformité et son impact sur l'industrie de l'IA nécessitent encore une observation plus approfondie. La réponse de Google n'a pas complètement éliminé les inquiétudes, la réponse officielle d'Anthropic n'a pas encore été publiée et l'incident se poursuit.