Antropic เพิ่งเปิดตัวเวอร์ชัน 2.1 ของ Claude อย่างไรก็ตาม การเน้นย้ำเรื่องความปลอดภัยและจริยธรรมมากเกินไปทำให้ความง่ายในการใช้งานของแบบจำลองลดลง ผู้ใช้หลายคนรายงานว่า Claude 2.1 ปฏิเสธที่จะดำเนินการคำสั่ง ทำให้เกิดความไม่พอใจและยกเลิกการสมัครสมาชิกโดยผู้ใช้ที่ชำระเงิน การเคลื่อนไหวครั้งนี้ทำให้เกิดการอภิปรายในอุตสาหกรรมเกี่ยวกับการแลกเปลี่ยนระหว่างความปลอดภัยของ AI และฟังก์ชันการทำงาน วิธีรับประกันความปลอดภัยของ AI ในขณะที่คำนึงถึงประสบการณ์ของผู้ใช้กลายเป็นความท้าทายใหม่สำหรับบริษัท AI
หลังจากที่สตาร์ทอัพ AI Antropic เปิดตัว Claude เวอร์ชัน 2.1 ผู้ใช้หลายคนพบว่า Claude ใช้งานยากและมักปฏิเสธที่จะรันคำสั่ง เหตุผลก็คือ Claude 2.1 เป็นไปตามรัฐธรรมนูญของ AI ที่ออกโดย Antropic และมีความระมัดระวังมากขึ้นในด้านความปลอดภัยและจริยธรรม สิ่งนี้ทำให้ผู้ใช้ที่ชำระเงินจำนวนมากแสดงความไม่พอใจอย่างมากและเตรียมที่จะยกเลิกการสมัครสมาชิก คนในวงการกังวลว่า Antropic เสียสละประสิทธิภาพของโมเดลบางอย่างเพื่อความปลอดภัยของ AI ซึ่งอาจทำให้เสียเปรียบในการแข่งขัน AI ที่ดุเดือดมากขึ้น
เวอร์ชัน Claude 2.1 ก่อให้เกิดความขัดแย้ง โดยเน้นถึงความสมดุลที่ยากลำบากระหว่างความปลอดภัยและการใช้งานจริงในการพัฒนา AI Antropic จำเป็นต้องค้นหาโซลูชันที่ดีกว่าในเวอร์ชันในอนาคตเพื่อให้สามารถแข่งขันได้ในการแข่งขันในตลาดที่รุนแรงและตอบสนองความต้องการของผู้ใช้