Недавно работа по улучшению модели искусственного интеллекта Gemini от Google вызвала споры. По данным TechCrunch, подрядчики Google сравнили ответы Gemini с результатами конкурента Anthropic Клода, чтобы оценить производительность Gemini. Этот шаг вызывает вопросы о том, использовала ли Google данные Клода без разрешения и не нарушила ли это условия предоставления бизнес-услуг Anthropic, поскольку Anthropic является одним из крупнейших инвесторов Google. Этот инцидент подчеркивает интенсивность конкуренции в области искусственного интеллекта и важность вопросов использования данных и соблюдения требований.
Конкуренция между технологическими гигантами в области искусственного интеллекта становится все более жесткой, и недавние новости вновь выдвинули на первый план скрытую отраслевую конкуренцию. Согласно внутренним сообщениям, полученным TechCrunch, подрядчик, ответственный за улучшение модели искусственного интеллекта Gemini от Google, сравнивал свои ответы с результатами конкурирующей модели Claude от Anthropic. Этот шаг вызвал вопросы о соблюдении Google разрешения Anthropic на использование Клода для тестирования.
Поскольку технологические компании конкурируют за разработку лучших моделей ИИ, эффективность моделей обычно оценивается с помощью отраслевых тестов, а не подрядчиков, тратящих много энергии на оценку реакции ИИ конкурентов. Однако, согласно сообщениям, подрядчики Gemini обязаны оценивать каждый ответ, который они видят, на основе множества критериев, включая подлинность и многословие. У исполнителя есть до 30 минут, чтобы решить, какой ответ лучше: Близнеца или Клода.
Подрядчики отметили, что ответы Клода, похоже, подчеркивают безопасность больше, чем ответы Близнецов, как показывают записи внутреннего чата. Один подрядчик сказал: «У Claude самые строгие настройки безопасности из всех моделей ИИ». В другом тесте Клод уклонился от ответа на определенное слово, а ответ Близнецов был помечен как «серьезное нарушение безопасности» за включение «наготы и сдержанности».
Условия бизнес-услуг Anthropic прямо запрещают клиентам получать доступ к Claude «для создания конкурирующих продуктов или услуг» или «обучения конкурирующих моделей ИИ» без одобрения. Стоит отметить, что Google является основным инвестором Anthropic. Этот фон усилил сомнения внешнего мира в поведении Google.
В ответ Макнамара, представитель Google DeepMind (ответственный за Gemini), заявил, что DeepMind «сравнивает результаты моделей» для оценки, но не обучает Gemini антропной модели. «Конечно, согласно отраслевой практике, в некоторых случаях мы сравниваем результаты моделей в рамках процесса оценки», — сказал Макнамара. «Однако любое предположение о том, что мы использовали антропную модель для обучения Близнецов, является неточным».
Хотя Google отрицает использование Клода для обучения Gemini, его риторика о «сравнении результатов моделей» по-прежнему двусмысленна и не может полностью устранить внешние сомнения. Инцидент еще раз вызвал обеспокоенность по поводу использования данных и соблюдения требований при разработке моделей ИИ. В сфере искусственного интеллекта с жесткой конкуренцией вопрос о том, как поддерживать честную конкуренцию и соблюдать права интеллектуальной собственности, станет важным вопросом, который требует постоянного внимания и обсуждения в ходе развития отрасли.
Объяснение инцидента со стороны Google не полностью устранило сомнения общественности, что отражает жесткую конкуренцию в области искусственного интеллекта и серьезность проблем с соблюдением требований к данным. В будущем отрасли необходимо установить более четкие правила и стандарты для обеспечения честной конкуренции и защиты интеллектуальной собственности.