أصدرت Antropic مؤخرًا الإصدار 2.1 من Claude، ومع ذلك، فقد أدى التركيز المفرط على السلامة والأخلاق إلى انخفاض سهولة استخدام النموذج. أبلغ العديد من المستخدمين أن كلود 2.1 رفض تنفيذ الأوامر، مما تسبب في استياء المستخدمين وإلغاء الاشتراكات. أثارت هذه الخطوة نقاشًا في الصناعة حول المفاضلة بين أمان الذكاء الاصطناعي ووظائفه، حيث أصبحت كيفية ضمان أمان الذكاء الاصطناعي مع مراعاة تجربة المستخدم تحديًا جديدًا لشركات الذكاء الاصطناعي.
بعد أن أطلقت شركة Antropic الناشئة للذكاء الاصطناعي الإصدار 2.1 من Claude، وجد العديد من المستخدمين أن Claude أصبح صعب الاستخدام وكثيرًا ما رفضوا تنفيذ الأوامر. والسبب هو أن Claude 2.1 يتبع دستور الذكاء الاصطناعي الصادر عن Antropic وهو أكثر حذرًا من حيث السلامة والأخلاق. وقد أدى ذلك إلى تعبير العديد من المستخدمين الذين يدفعون عن استيائهم الشديد واستعدادهم لإلغاء اشتراكاتهم. يشعر المطلعون على الصناعة بالقلق من أن شركة Antropic تضحي ببعض أداء النماذج لضمان سلامة الذكاء الاصطناعي، الأمر الذي قد يضعها في وضع غير مؤات في منافسة الذكاء الاصطناعي الشرسة بشكل متزايد.
أثار إصدار كلود 2.1 جدلاً، حيث سلط الضوء على التوازن الصعب بين السلامة والتطبيق العملي في تطوير الذكاء الاصطناعي. تحتاج Antropic إلى إيجاد حلول أفضل في الإصدارات المستقبلية لتظل قادرة على المنافسة في المنافسة الشرسة في السوق وتلبية احتياجات المستخدمين.