Недавно TechCrunch опубликовал внутренние документы Google, показывающие, что Google использует подрядчиков для сравнения и тестирования своего искусственного интеллекта Gemini AI и искусственного интеллекта Claude AI от Anthropic, что вызвало споры по поводу соответствия требованиям. В документе показано, что подрядчику необходимо оценить качество ответов двух ИИ по множеству критериев, и высоко оценивается безопасность Клода. Этот шаг может нарушить условия обслуживания Anthropic, поскольку Google является крупным инвестором Anthropic, а условия запрещают несанкционированное использование Claude для разработки конкурирующих продуктов или обучения конкурирующих моделей искусственного интеллекта.
Согласно внутренним сообщениям, полученным TechCrunch, Google заставляет подрядчиков сравнивать свой искусственный интеллект Gemini с Claude от Anthropic, и этот шаг вызывает вопросы о соблюдении требований.
В документе показано, что подрядчику, ответственному за улучшение Gemini, необходимо сравнить и оценить качество ответов Gemini и Клода на основе множества критериев, таких как подлинность и тщательность, в течение 30 минут. Подрядчики недавно обнаружили явные ссылки на Клода на внутренней платформе обзора Google, включая слова «Я Клод, созданный Anthropic».
Внутренние обсуждения показали, что подрядчики обратили внимание на более строгие правила безопасности Клода. Подрядчик заявил, что «настройки безопасности Клода являются самыми строгими среди всех моделей ИИ». В некоторых случаях, когда ответы Близнецов были помечены как «серьезные нарушения безопасности», поскольку они включали «наготу и сдержанность», Клод просто отказывался отвечать на соответствующие подсказки.
Стоит отметить, что подход Google, являющегося крупным инвестором Anthropic, может нарушать условия обслуживания Anthropic. Условия прямо запрещают несанкционированный доступ к Claude для «создания конкурирующих продуктов» или «обучения конкурирующих моделей ИИ». На вопрос, было ли это одобрено Anthropic, представитель Google DeepMind Шира Макнамара отказалась отвечать напрямую.
Макнамара сказал, что хотя DeepMind и «сравнивает результаты моделей» для оценки, он отрицает использование антропной модели для обучения Близнецов. «Это соответствует стандартной отраслевой практике», — сказала она, — «но любое утверждение о том, что мы использовали антропные модели для обучения Близнецов, неверно».
Ранее Google требовал, чтобы подрядчики по продуктам искусственного интеллекта оценивали ответы Gemini за пределами своей области знаний, что вызывало обеспокоенность среди подрядчиков тем, что искусственный интеллект может предоставлять неточную информацию в таких чувствительных областях, как здравоохранение.
На момент публикации представитель Anthropic не прокомментировал этот вопрос.
Сравнительное тестирование Gemini и Claude, проведенное Google, привлекло широкое внимание, а его проблемы соответствия и влияние на индустрию искусственного интеллекта все еще требуют дальнейшего наблюдения. Реакция Google не полностью устранила опасения, официальный ответ Anthropic еще не опубликован, а инцидент все еще продолжается.