Récemment, les travaux d’amélioration du modèle Gemini AI de Google ont suscité la controverse. Selon TechCrunch, les sous-traitants de Google ont comparé les réponses de Gemini aux résultats du concurrent d'Anthropic, Claude, pour évaluer les performances de Gemini. Cette décision soulève des questions quant à savoir si Google a utilisé les données de Claude sans autorisation et si cela a violé les conditions de services commerciaux d'Anthropic, puisqu'Anthropic est l'un des principaux investisseurs de Google. L'incident met en évidence l'intensité de la concurrence dans le domaine de l'IA et l'importance des problèmes d'utilisation et de conformité des données.
La concurrence entre les géants de la technologie dans le domaine de l’IA devient de plus en plus féroce, et une nouvelle récente a une fois de plus mis au premier plan la concurrence sous-jacente dans l’industrie. Selon des communications internes obtenues par TechCrunch, l'entrepreneur chargé d'améliorer le modèle d'intelligence artificielle Gemini de Google comparait ses réponses aux résultats du modèle concurrent d'Anthropic, Claude. Cette décision a soulevé des questions sur le respect par Google de l'autorisation d'Anthropic d'utiliser Claude à des fins de tests.
Alors que les entreprises technologiques rivalisent pour développer de meilleurs modèles d'IA, les performances des modèles sont généralement évaluées à l'aide de références industrielles, plutôt que de la part des entrepreneurs qui consacrent beaucoup d'énergie à évaluer les réponses d'IA des concurrents. Cependant, selon les rapports, les entrepreneurs Gemini sont tenus d'évaluer chaque réponse qu'ils voient en fonction de plusieurs critères, notamment l'authenticité et la verbosité. L'entrepreneur a jusqu'à 30 minutes pour décider si la réponse de Gemini ou de Claude est meilleure.
Les entrepreneurs ont noté que les réponses de Claude semblaient mettre davantage l'accent sur la sécurité que celles de Gemini, comme le montrent les enregistrements de discussion internes. Un entrepreneur a déclaré : « Claude dispose des paramètres de sécurité les plus stricts de tous les modèles d'IA. » Dans certains cas, Claude ne répondra pas aux messages qu'il considère comme dangereux, comme jouer avec un autre assistant IA. Dans un autre test, Claude a évité de répondre à un certain mot rapide, et la réponse de Gemini a été signalée comme une « grave violation de la sécurité » pour avoir inclus « de la nudité et de la contention ».
Les conditions de services commerciaux d'Anthropic interdisent spécifiquement aux clients d'accéder à Claude « pour créer des produits ou des services concurrents » ou « former des modèles d'IA concurrents » sans approbation. Il convient de noter que Google est le principal investisseur d’Anthropic. Ce contexte a accru les doutes du monde extérieur quant à la conformité comportementale de Google.
En réponse, McNamara, porte-parole de Google DeepMind (responsable de Gemini), a déclaré que DeepMind « compare les résultats du modèle » à des fins d'évaluation, mais ne forme pas Gemini sur le modèle Anthropic. "Bien sûr, comme c'est le cas dans l'industrie, dans certains cas, nous comparons les résultats du modèle dans le cadre du processus d'évaluation", a déclaré McNamara. "Cependant, toute suggestion selon laquelle nous avons utilisé le modèle Anthropic pour former Gemini est inexacte."
Bien que Google nie avoir utilisé Claude pour entraîner Gemini, sa rhétorique de « comparaison des résultats du modèle » reste ambiguë et ne peut pas éliminer complètement les doutes externes. L’incident a une fois de plus soulevé des inquiétudes quant à l’utilisation et à la conformité des données dans le développement de modèles d’IA. Dans le domaine extrêmement compétitif de l’IA, la manière de maintenir une concurrence loyale et de respecter les droits de propriété intellectuelle deviendra une question importante qui nécessitera une attention et des discussions continues tout au long du développement de l’industrie.
L’explication de Google sur l’incident n’a pas complètement dissipé les doutes du public, ce qui reflète la concurrence féroce dans le domaine de l’IA et la gravité des problèmes de conformité des données. À l’avenir, l’industrie devra établir des règles et des normes plus claires pour garantir une concurrence loyale et la protection de la propriété intellectuelle.