Antropic baru-baru ini merilis Claude versi 2.1. Namun, penekanannya yang berlebihan pada keselamatan dan etika telah menyebabkan penurunan kemudahan penggunaan model tersebut. Banyak pengguna melaporkan bahwa Claude 2.1 menolak menjalankan perintah, menyebabkan ketidakpuasan dan pembatalan langganan oleh pengguna yang membayar. Langkah ini memicu diskusi di industri mengenai trade-off antara keamanan dan fungsionalitas AI. Bagaimana memastikan keamanan AI dengan tetap mempertimbangkan pengalaman pengguna telah menjadi tantangan baru bagi perusahaan AI.
Setelah startup AI Antropic meluncurkan Claude versi 2.1, banyak pengguna yang mendapati bahwa Claude menjadi sulit digunakan dan sering menolak menjalankan perintah. Pasalnya, Claude 2.1 mengikuti Konstitusi AI yang dikeluarkan Antropic dan lebih berhati-hati dalam hal keamanan dan etika. Hal ini menyebabkan banyak pengguna berbayar menyatakan ketidakpuasan yang kuat dan bersiap untuk membatalkan langganan mereka. Orang dalam industri khawatir bahwa Antropic mengorbankan beberapa kinerja model untuk memastikan keamanan AI, yang mungkin akan merugikannya dalam persaingan AI yang semakin ketat.
Versi Claude 2.1 menimbulkan kontroversi, menyoroti sulitnya keseimbangan antara keamanan dan kepraktisan dalam pengembangan AI. Antropic perlu menemukan solusi yang lebih baik di versi mendatang agar tetap kompetitif dalam persaingan pasar yang ketat dan memenuhi kebutuhan pengguna.