Récemment, le média technologique TechCrunch a annoncé que Google utilisait le modèle d'IA Claude d'Anthropic pour évaluer les performances de son propre modèle d'IA Gemini. Cette décision a suscité de nombreux doutes quant à sa conformité dans l'industrie. Au cœur de l'incident se trouve la possible violation par Google des conditions de service d'Anthropic, qui interdisent explicitement l'utilisation non autorisée de Claude pour créer des produits concurrents ou former des modèles d'IA concurrents. Dans le même temps, l'incident a également mis en évidence les différences de sécurité entre les différents modèles d'IA. Claude semble être plus performant que Gemini en termes de sécurité.
Les sous-traitants de Google auraient comparé les réponses de Gemini et de Claude pour évaluer l'exactitude et la qualité de Gemini. Claude a fait preuve d'une plus grande sécurité dans certaines situations, refusant de répondre aux invites de danger ou donnant des réponses plus prudentes, tandis que Gemini a subi de graves violations de sécurité. Google DeepMind a nié avoir utilisé Claude pour former Gemini, mais a admis qu'il comparerait les résultats de différents modèles à des fins d'évaluation. Il convient de noter que Google est l’un des principaux investisseurs d’Anthropic, ce qui rend cet incident encore plus compliqué.
Points forts:
L'utilisation par Google de Claude AI d'Anthropic pour évaluer Gemini peut enfreindre ses conditions d'utilisation.
Claude semble être plus strict que Gémeaux en matière de sécurité.
Google DeepMind a nié avoir utilisé le modèle Anthropic pour entraîner Gemini, tout en confirmant la pratique consistant à évaluer les résultats du modèle.
La décision de Google a suscité des discussions sur la concurrence et les partenariats entre les grandes entreprises technologiques, ainsi que sur les normes et les questions éthiques liées à l'évaluation des modèles d'IA. À l’avenir, des incidents similaires pourraient inciter l’industrie à standardiser davantage les méthodes d’évaluation et l’utilisation des données des modèles d’IA afin de garantir une concurrence loyale et de maintenir la sécurité de l’IA. Cet incident nous rappelle également que le développement rapide de la technologie de l’IA doit s’accompagner d’un cadre réglementaire et éthique plus complet.