นักวิจัยจากมหาวิทยาลัยแมริแลนด์ได้พัฒนาเทคโนโลยีใหม่ที่เรียกว่า BEAST ซึ่งสามารถกระตุ้นให้เกิดปฏิกิริยาที่เป็นอันตรายในโมเดลภาษาขนาดใหญ่ (LLM) ได้ภายในหนึ่งนาที โดยมีอัตราความสำเร็จถึง 89% งานวิจัยนี้เน้นย้ำถึงช่องโหว่ด้านความปลอดภัยของ LLM ในปัจจุบัน และก่อให้เกิดความท้าทายร้ายแรงต่อความปลอดภัยของโมเดล AI เทคโนโลยี BEAST ใช้ฮาร์ดแวร์ที่ค่อนข้างธรรมดา (Nvidia RTX A6000 GPU และหน่วยความจำ 48GB) เพื่อโจมตีโมเดลเชิงพาณิชย์ รวมถึง GPT-4 ของ OpenAI โดยไม่ต้องเข้าถึงเนื้อหาทั้งหมดของโมเดล สิ่งนี้แสดงให้เห็นว่าแม้แต่โมเดลที่ดูเหมือนปลอดภัยก็อาจมีความเสี่ยงที่จะถูกนำไปใช้เพื่อวัตถุประสงค์ที่เป็นอันตราย
นักวิจัยจากมหาวิทยาลัยแมริแลนด์ในสหรัฐอเมริกาประสบความสำเร็จในการพัฒนาเทคโนโลยี BEAST ซึ่งสามารถกระตุ้นให้เกิดปฏิกิริยาที่เป็นอันตรายในรูปแบบภาษาขนาดใหญ่ได้ภายในหนึ่งนาที โดยมีอัตราความสำเร็จสูงถึง 89% เทคโนโลยีนี้ใช้ GPU Nvidia RTX A6000 พร้อมหน่วยความจำ 48GB และสามารถโจมตีโมเดลเชิงพาณิชย์ เช่น GPT-4 ของ OpenAI โดยไม่ต้องเข้าถึงโมเดลภาษาทั้งหมด ความเร็วและประสิทธิภาพของวิธีการโจมตี BEAST แสดงให้เห็นถึงช่องโหว่ต่อโมเดล AI และทะลุรั้วของ LLM ได้
การเกิดขึ้นของเทคโนโลยี BEAST ส่งสัญญาณเตือนในด้านความปลอดภัยของ AI โดยเตือนเราว่าเราจำเป็นต้องเสริมสร้างการวิจัยด้านความปลอดภัยในแบบจำลองภาษาขนาดใหญ่ พัฒนากลไกการป้องกันที่มีประสิทธิภาพมากขึ้น เพื่อจัดการกับภัยคุกคามด้านความปลอดภัยที่อาจเกิดขึ้น และรับประกันการพัฒนาที่ดีของเทคโนโลยีเทียม เทคโนโลยีอัจฉริยะ ในอนาคต เทคโนโลยีการป้องกันที่ทรงพลังยิ่งขึ้นและมาตรฐานความปลอดภัยที่เข้มงวดยิ่งขึ้นจะกลายเป็นกุญแจสำคัญในการพัฒนาด้าน AI