A Antropic lançou recentemente a versão 2.1 do Claude. No entanto, sua ênfase exagerada na segurança e na ética levou a uma diminuição na facilidade de uso do modelo. Muitos usuários relataram que Claude 2.1 se recusou a executar comandos, causando insatisfação e cancelamento de assinaturas por parte de usuários pagantes. Esta mudança desencadeou uma discussão na indústria sobre o compromisso entre segurança e funcionalidade da IA. Como garantir a segurança da IA tendo em conta a experiência do utilizador tornou-se um novo desafio para as empresas de IA.
Depois que a startup de IA Antropic lançou a versão 2.1 do Claude, muitos usuários descobriram que o Claude se tornou difícil de usar e muitas vezes se recusava a executar comandos. A razão é que Claude 2.1 segue a Constituição da IA divulgada pela Antropic e é mais cauteloso em termos de segurança e ética. Isso fez com que muitos usuários pagantes expressassem forte insatisfação e se preparassem para cancelar suas assinaturas. Os membros da indústria temem que a Antropic sacrifique parte do desempenho do modelo para garantir a segurança da IA, o que pode colocá-la em desvantagem na competição cada vez mais acirrada da IA.
A versão Claude 2.1 causou polêmica, destacando o difícil equilíbrio entre segurança e praticidade no desenvolvimento da IA. A Antropic precisa encontrar melhores soluções em versões futuras para se manter competitiva na acirrada competição do mercado e atender às necessidades dos usuários.