Antropic lanzó recientemente la versión 2.1 de Claude. Sin embargo, su excesivo énfasis en la seguridad y la ética ha llevado a una disminución en la facilidad de uso del modelo. Muchos usuarios informaron que Claude 2.1 se negó a ejecutar comandos, lo que provocó insatisfacción y cancelación de suscripciones por parte de los usuarios que pagaban. Este movimiento desencadenó una discusión en la industria sobre el equilibrio entre la seguridad y la funcionalidad de la IA. Cómo garantizar la seguridad de la IA teniendo en cuenta la experiencia del usuario se ha convertido en un nuevo desafío para las empresas de IA.
Después de que la startup de IA Antropic lanzara la versión 2.1 de Claude, muchos usuarios descubrieron que Claude se volvía difícil de usar y, a menudo, se negaba a ejecutar comandos. La razón es que Claude 2.1 sigue la Constitución de IA publicada por Antropic y es más cauteloso en términos de seguridad y ética. Esto ha llevado a que muchos usuarios de pago expresen un gran descontento y se preparen para cancelar sus suscripciones. A los expertos de la industria les preocupa que Antropic sacrifique parte del rendimiento del modelo para garantizar la seguridad de la IA, lo que puede ponerlo en desventaja en la competencia cada vez más feroz de la IA.
La versión Claude 2.1 causó controversia, destacando el difícil equilibrio entre seguridad y practicidad en el desarrollo de la IA. Antropic necesita encontrar mejores soluciones en versiones futuras para seguir siendo competitivo en la feroz competencia del mercado y satisfacer las necesidades de los usuarios.