Recientemente, el medio tecnológico TechCrunch dio la noticia de que Google está utilizando el modelo Claude AI de Anthropic para evaluar el rendimiento de su propio modelo Gemini AI. Este movimiento ha generado dudas generalizadas sobre su cumplimiento en la industria. En el centro del incidente está la posible violación por parte de Google de los términos de servicio de Anthropic, que prohíben explícitamente el uso no autorizado de Claude para crear productos de la competencia o entrenar modelos de IA de la competencia. Al mismo tiempo, el incidente también destacó las diferencias en seguridad entre los diferentes modelos de IA. Claude parece tener un mejor desempeño que Gemini en términos de seguridad.
Según se informa, los contratistas de Google compararon las respuestas de Gemini y Claude para evaluar la precisión y calidad de Gemini. Claude ha mostrado mayor seguridad en algunas situaciones, negándose a responder indicaciones de peligro o dando respuestas más cautelosas, mientras que Gemini ha tenido graves violaciones de seguridad. Google DeepMind negó haber utilizado Claude para entrenar a Gemini, pero admitió que compararía el resultado de diferentes modelos para su evaluación. Vale la pena señalar que Google es uno de los principales inversores de Anthropic, lo que complica aún más este incidente.
Reflejos:
El uso por parte de Google de Claude AI de Anthropic para evaluar Gemini puede violar sus términos de servicio.
Claude parece ser más estricto que Géminis en lo que respecta a la seguridad.
Google DeepMind negó haber utilizado el modelo antrópico para entrenar a Gemini, al tiempo que confirmó la práctica de evaluar los resultados del modelo.
La medida de Google ha provocado debates sobre la competencia y las asociaciones entre las grandes empresas tecnológicas, así como sobre estándares y cuestiones éticas en la evaluación de modelos de IA. En el futuro, incidentes similares pueden impulsar a la industria a estandarizar aún más los métodos de evaluación y el uso de datos de los modelos de IA para garantizar una competencia justa y mantener la seguridad de la IA. Este incidente también nos recuerda que el rápido desarrollo de la tecnología de IA debe ir acompañado de un marco regulatorio y ético más completo.