طور باحثون في جامعة ميريلاند تقنية جديدة تسمى BEAST يمكنها إحداث ردود فعل ضارة في نماذج اللغة الكبيرة (LLM) خلال دقيقة واحدة، بمعدل نجاح يصل إلى 89%. يسلط هذا البحث الضوء على نقاط الضعف الأمنية في LLMs الحالية ويطرح تحديات خطيرة لأمن نماذج الذكاء الاصطناعي. تستخدم تقنية BEAST أجهزة شائعة نسبيًا (وحدة معالجة الرسومات Nvidia RTX A6000 وذاكرة سعة 48 جيجابايت) لمهاجمة النماذج التجارية، بما في ذلك OpenAI's GPT-4، دون الوصول إلى محتوى النموذج بالكامل. وهذا يوضح أنه حتى النماذج التي تبدو آمنة قد تكون معرضة لخطر الاستغلال لأغراض ضارة.
نجح باحثون في جامعة ميريلاند بالولايات المتحدة في تطوير تقنية BEAST، التي يمكنها إثارة ردود فعل ضارة في نماذج لغوية كبيرة خلال دقيقة واحدة، بنسبة نجاح تصل إلى 89%. تستخدم هذه التقنية وحدة معالجة الرسومات Nvidia RTX A6000 المزودة بذاكرة سعة 48 جيجابايت ويمكنها مهاجمة النماذج التجارية، مثل OpenAI's GPT-4، دون الوصول إلى نموذج اللغة بالكامل. توضح سرعة وكفاءة طريقة الهجوم BEAST مدى الضعف أمام نموذج الذكاء الاصطناعي وتخترق حاجز حماية LLM.
لقد دق ظهور تقنية BEAST ناقوس الخطر في مجال أمن الذكاء الاصطناعي، حيث ذكرنا بأننا بحاجة إلى زيادة تعزيز البحوث الأمنية على نماذج اللغات الكبيرة، وتطوير آليات دفاع أكثر فعالية للتعامل مع التهديدات الأمنية المحتملة، وضمان التطور الصحي للتقنيات الاصطناعية. تكنولوجيا الذكاء. في المستقبل، ستصبح تكنولوجيا الدفاع الأكثر قوة ومعايير الأمان الأكثر صرامة هي المفتاح لتطوير مجال الذكاء الاصطناعي.