Недавно компания Antropic выпустила версию 2.1 Claude. Однако чрезмерный акцент на безопасности и этике привел к снижению простоты использования модели. Многие пользователи сообщили, что Клод 2.1 отказывался выполнять команды, что вызывало недовольство и отмену подписок со стороны платящих пользователей. Этот шаг вызвал в отрасли дискуссию о компромиссе между безопасностью и функциональностью ИИ. Как обеспечить безопасность ИИ, принимая во внимание пользовательский опыт, стало новой задачей для компаний, занимающихся ИИ.
После того, как AI-стартап Antropic выпустил версию 2.1 Claude, многие пользователи обнаружили, что Claude стало сложно использовать и он часто отказывался выполнять команды. Причина в том, что Клод 2.1 следует Конституции ИИ, опубликованной Antropic, и более осторожен с точки зрения безопасности и этики. Это привело к тому, что многие платящие пользователи выразили сильное недовольство и приготовились отменить свои подписки. Инсайдеры отрасли обеспокоены тем, что Antropic жертвует некоторыми характеристиками моделей ради обеспечения безопасности ИИ, что может поставить ее в невыгодное положение в условиях все более жесткой конкуренции ИИ.
Версия Клода 2.1 вызвала споры, подчеркнув сложный баланс между безопасностью и практичностью при разработке ИИ. Antropic необходимо найти лучшие решения в будущих версиях, чтобы оставаться конкурентоспособными в условиях жесткой рыночной конкуренции и удовлетворять потребности пользователей.