Antropic a récemment publié la version 2.1 de Claude. Cependant, l'importance excessive accordée à la sécurité et à l'éthique a conduit à une diminution de la facilité d'utilisation du modèle. De nombreux utilisateurs ont signalé que Claude 2.1 refusait d'exécuter des commandes, provoquant un mécontentement et l'annulation des abonnements des utilisateurs payants. Cette décision a déclenché une discussion dans l'industrie sur le compromis entre la sécurité de l'IA et la fonctionnalité. Comment garantir la sécurité de l'IA tout en prenant en compte l'expérience utilisateur est devenu un nouveau défi pour les entreprises d'IA.
Après que la startup d'IA Antropic ait lancé la version 2.1 de Claude, de nombreux utilisateurs ont constaté que Claude devenait difficile à utiliser et refusait souvent d'exécuter des commandes. La raison en est que Claude 2.1 suit la Constitution AI publiée par Antropic et est plus prudente en termes de sécurité et d'éthique. Cela a conduit de nombreux utilisateurs payants à exprimer un fort mécontentement et à se préparer à annuler leur abonnement. Les initiés du secteur craignent qu'Antropic sacrifie certaines performances de son modèle pour garantir la sécurité de l'IA, ce qui pourrait le désavantager dans la concurrence de plus en plus féroce de l'IA.
La version Claude 2.1 a suscité la controverse, soulignant le difficile équilibre entre sécurité et praticité dans le développement de l'IA. Antropic doit trouver de meilleures solutions dans les versions futures pour rester compétitif face à une concurrence féroce sur le marché et répondre aux besoins des utilisateurs.