Недавно технологическое издание TechCrunch сообщило о том, что Google использует модель искусственного интеллекта Claude от Anthropic для оценки производительности своей собственной модели искусственного интеллекта Gemini. Этот шаг вызвал широко распространенные сомнения в ее соответствии требованиям в отрасли. В основе инцидента лежит возможное нарушение Google условий обслуживания Anthropic, которые прямо запрещают несанкционированное использование Claude для создания конкурирующих продуктов или обучения конкурирующих моделей искусственного интеллекта. В то же время этот инцидент также подчеркнул различия в безопасности между различными моделями ИИ. Похоже, что Claude работает лучше, чем Gemini, с точки зрения безопасности.
Сообщается, что подрядчики Google сравнили ответы Gemini и Claude, чтобы оценить точность и качество Gemini. Клод проявлял большую безопасность в некоторых ситуациях, отказываясь отвечать на подсказки об опасности или давая более осторожные ответы, в то время как у Близнецов были серьезные нарушения безопасности. Google DeepMind отрицает использование Claude для обучения Gemini, но признает, что будет сравнивать результаты различных моделей для оценки. Стоит отметить, что Google является одним из крупнейших инвесторов Anthropic, что еще больше усложняет ситуацию.
Выделять:
Использование Google искусственного интеллекта Claude AI от Anthropic для оценки Gemini может нарушать условия обслуживания.
Клод кажется более строгим, чем Близнецы, когда дело касается безопасности.
Google DeepMind опроверг использование антропной модели для обучения Близнецов, но подтвердил практику оценки результатов модели.
Этот шаг Google вызвал дискуссии о конкуренции и партнерстве между крупными технологическими компаниями, а также о стандартах и этических проблемах при оценке моделей искусственного интеллекта. В будущем подобные инциденты могут побудить отрасль к дальнейшей стандартизации методов оценки и использования данных моделей ИИ, чтобы обеспечить честную конкуренцию и поддерживать безопасность ИИ. Этот инцидент также напоминает нам о том, что быстрое развитие технологий искусственного интеллекта должно сопровождаться более полной нормативной и этической базой.