Recientemente, TechCrunch expuso documentos internos de Google, que muestran que Google está utilizando contratistas para comparar y probar su IA Gemini y Claude AI de Anthropic, lo que generó controversia sobre el cumplimiento. El documento muestra que el contratista debe evaluar la calidad de las respuestas de las dos IA según múltiples criterios y elogia la seguridad de Claude. Esta medida puede violar los términos de servicio de Anthropic, ya que Google es un importante inversor en Anthropic y los términos prohíben el uso no autorizado de Claude para desarrollar productos de la competencia o entrenar modelos de IA de la competencia.
Google está haciendo que contratistas evalúen su IA Gemini con Claude de Anthropic, según comunicaciones internas obtenidas por TechCrunch, lo que plantea dudas sobre el cumplimiento.
El documento muestra que el contratista responsable de mejorar Gemini necesita comparar y evaluar la calidad de las respuestas de Gemini y Claude basándose en múltiples criterios como autenticidad y minuciosidad en 30 minutos. Los contratistas descubrieron recientemente referencias explícitas a Claude en la plataforma de revisión interna de Google, incluidas las palabras "Soy Claude, creado por Anthropic".
Las discusiones internas revelaron que los contratistas notaron las prácticas de seguridad más estrictas de Claude. Un contratista dijo que "las configuraciones de seguridad de Claude son las más estrictas entre todos los modelos de IA". En algunos casos, cuando las respuestas de Gemini fueron marcadas como "violaciones graves de seguridad" porque implicaban "desnudez y moderación", Claude simplemente se negó a responder a las indicaciones pertinentes.
Vale la pena señalar que, como principal inversor de Anthropic, el enfoque de Google puede violar los términos de servicio de Anthropic. Los términos prohíben explícitamente el acceso no aprobado a Claude para "crear productos competitivos" o "entrenar modelos de IA competitivos". Cuando se le preguntó si había sido autorizado por Anthropic, la portavoz de Google DeepMind, Shira McNamara, se negó a responder directamente.
McNamara dijo que si bien DeepMind "compara los resultados del modelo" para su evaluación, negó haber usado el modelo Anthropic para entrenar a Gemini. "Esto está en línea con la práctica estándar de la industria", dijo, "pero cualquier afirmación de que utilizamos modelos antrópicos para entrenar a Géminis es inexacta".
Anteriormente, Google exigía a los contratistas de productos de IA que evaluaran las respuestas de Gemini fuera de sus áreas de especialización, lo que generaba preocupación entre los contratistas de que la IA pudiera producir información inexacta en campos sensibles como la atención médica.
Al cierre de esta edición, un portavoz de Anthropic no se había pronunciado sobre el asunto.
La prueba comparativa de Google entre Gemini y Claude ha atraído una atención generalizada, y sus problemas de cumplimiento y su impacto en la industria de la IA aún requieren una mayor observación. La respuesta de Google no ha eliminado por completo las preocupaciones, la respuesta oficial de Anthropic aún no se ha publicado y el incidente aún se está desarrollando.