เมื่อเร็ว ๆ นี้ คณะกรรมาธิการการค้าของรัฐบาลกลางสหรัฐ (FTC) ได้เปิดตัวการสืบสวนเกี่ยวกับ Anthropic ซึ่งเป็นสตาร์ทอัพด้าน AI ที่มีมูลค่า 18 พันล้านดอลลาร์ เนื่องจากการละเมิดข้อมูลที่บริษัท การรั่วไหลนี้เกี่ยวข้องกับข้อมูลที่ไม่ละเอียดอ่อนของลูกค้าบางราย รวมถึงชื่อและยอดเครดิต จนถึงปี 2023 เหตุการณ์นี้ก่อให้เกิดความกังวลอย่างกว้างขวางในอุตสาหกรรมเกี่ยวกับความปลอดภัยของข้อมูลของโมเดลภาษาขนาดใหญ่ และตอกย้ำถึงความท้าทายครั้งใหญ่ที่บริษัท AI เผชิญในการปกป้องข้อมูลอีกครั้ง การสอบสวนของ FTC จะตรวจสอบมาตรการรักษาความปลอดภัยข้อมูลของ Anthropic เพิ่มเติม และอาจมีผลกระทบสำคัญต่อการพัฒนาในอนาคตของบริษัท
FTC เริ่มการสอบสวนบริษัท Anthropic ที่มีมูลค่า 18 พันล้านดอลลาร์ และค้นพบการละเมิดข้อมูลในการเริ่มต้นระบบ AI การละเมิดดังกล่าวเกี่ยวข้องกับชุดย่อยของข้อมูลที่ไม่ละเอียดอ่อนเกี่ยวกับชื่อลูกค้าและยอดเครดิตจนถึงปี 2566 เหตุการณ์ดังกล่าวทำให้เกิดความกังวลเกี่ยวกับความปลอดภัยของโมเดลภาษาขนาดใหญ่
การละเมิดข้อมูลนี้ไม่เพียงแต่ส่งผลกระทบด้านลบต่อ Anthropic เท่านั้น แต่ยังส่งสัญญาณเตือนสำหรับอุตสาหกรรม AI ทั้งหมด โดยเตือนบริษัท AI ทั้งหมดว่าพวกเขาต้องให้ความสำคัญอย่างยิ่งต่อความปลอดภัยของข้อมูล และใช้มาตรการที่เข้มงวดมากขึ้นเพื่อปกป้องข้อมูลผู้ใช้เพื่อหลีกเลี่ยงเหตุการณ์ที่คล้ายคลึงกัน ไม่ให้เกิดขึ้นอีก ในอนาคต การเสริมสร้างความปลอดภัยของข้อมูลและการปกป้องความเป็นส่วนตัวจะกลายเป็นปัจจัยสำคัญในการพัฒนาอุตสาหกรรม AI ให้ดียิ่งขึ้น