أعلن فريق بحث Google مؤخرًا عن نتيجة بحث مثيرة للقلق: لقد نجحوا في مهاجمة نموذج OpenAI's GPT-3.5-turbo بتكلفة منخفضة تصل إلى 150 يوانًا. طريقة الهجوم هذه بسيطة وفعالة، وتتطلب أقل من 2000 استعلام لواجهة برمجة التطبيقات (API) للحصول على المعلومات الأساسية للنموذج. يسلط هذا الاكتشاف الضوء على أنه حتى النماذج اللغوية الكبيرة قد تواجه تهديدات أمنية خطيرة، ويدفعنا أيضًا إلى إعادة النظر في ضرورة وإلحاح الحماية الأمنية للذكاء الاصطناعي. تظهر نتائج البحث أن نماذج اللغات الكبيرة ليست غير قابلة للتدمير، وأن آليات الأمان تحتاج إلى التحسين المستمر للتعامل مع المخاطر المحتملة.
يكشف أحدث بحث أجرته Google عن طريقة ناجحة لمهاجمة طراز OpenAI GPT-3.5-turbo بتكلفة منخفضة تصل إلى 150 يوانًا. الهجوم بسيط وفعال، ويمكن الحصول على المعلومات الأساسية بأقل من 2000 استعلام من واجهة برمجة التطبيقات. تذكر هذه التجربة أنه حتى نماذج اللغات الكبيرة قد تواجه تهديدات أمنية، وقد اتخذت OpenAI خطوات لتعديل واجهة برمجة التطبيقات النموذجية لمنع المزيد من الهجمات.
لقد دقت أبحاث Google ناقوس الخطر فيما يتعلق بمجال أمان الذكاء الاصطناعي، كما عززت جهود شركات مثل OpenAI لتعزيز أمان النماذج. في المستقبل، سيصبح البحث والتطوير لإجراءات أمنية وآليات دفاع أكثر قوة جزءًا لا يتجزأ من تطوير الذكاء الاصطناعي لضمان التطبيق الآمن والموثوق لتكنولوجيا الذكاء الاصطناعي.