Big Sleep ، نموذج الذكاء الاصطناعي الذي طورته Google Project Zero بالتعاون مع DeepMind ، تم اكتشافه بنجاح وإصلاح ثغرة أمن الذاكرة في قاعدة بيانات SQLite. هذه هي المرة الأولى التي يكتشف فيها الذكاء الاصطناعى نقاط الضعف المعروفة في البرامج الواقعية ، مما يمثل اختراقًا كبيرًا في الذكاء الاصطناعي في مجال أمان البرامج. من خلال تحليل قاعدة كود SQLite ، تم اكتشاف Big Sleep Docitied Stack Stack Stack Underflow التي لم يتم اكتشافها عن طريق اختبارات الغموض التقليدية من قبل ، وساعد فريق التطوير على إصلاحه في الوقت المناسب ، وتجنب المخاطر الأمنية المحتملة. يوضح هذا الإنجاز الإمكانات الضخمة لوكالة الذكاء الاصطناعى في مساعدة الكشف عن أمان البرامج ويوفر اتجاهًا جديدًا لأبحاث أمان البرامج المستقبلية.
أعلنت Google مؤخرًا أن أحدث طراز AI "Big Sleep" قد اكتشف بنجاح ثغرة أمن في الذاكرة في قاعدة بيانات SQLite. هذه الثغرة الأمنية هي مشكلة مخزن مؤقت للمكدس القابل للاستغلال ، مما يسمح بإصلاح الكود قبل إصداره رسميًا. Big Sleep هو نتيجة التعاون بين Google Project Zero و DeepMind ويعتبر ترقية إلى وقت مبكر للمشروع.
قد يتسبب SQLite ، كمحرك قاعدة بيانات مفتوح المصدر ، في استخدام المهاجمين في قواعد بيانات تم إنشاؤها بشكل ضار أو حقن SQL ، مما يتسبب في تعطل تنفيذ SQLite أو حتى تنفيذ تنفيذ التعليمات البرمجية التعسفية. على وجه التحديد ، تنبع المشكلة من القيمة السحرية -1 التي يتم استخدامها بطريق الخطأ كمؤشر صفيف.
أشارت Google إلى أن استغلال هذه الضعف ليس بالأمر السهل ، ولكن الأهم من ذلك ، هذه هي المرة الأولى التي يكتشف فيها الذكاء الاصطناعى ثغرة أمنية معروفة في البرامج الواقعية. وفقًا لـ Google ، تفشل أساليب الضباب التقليدية في العثور على هذه المشكلة ، لكن النوم الكبير لا. بعد سلسلة من الالتزامات التي تحلل رمز المصدر للمشروع ، قام Big Sleep بإغلاق الضعف في أوائل أكتوبر وتم إصلاحه خلال نفس اليوم.
وقال جوجل في إعلان 1 نوفمبر أن البحث لديه إمكانات كبيرة في الدفاع. على الرغم من أن Fuzzing حقق بالفعل نتائج مهمة ، إلا أن فريق Google يعتقد أن هناك حاجة إلى نهج جديد لمساعدة المطورين على اكتشاف نقاط الضعف التي يصعب العثور عليها من خلال الضباب ، وهي مليئة بالتوقعات لقدرات الذكاء الاصطناعى في هذا الصدد.
في السابق ، أطلقت PROTTER AI مقراً لها أيضًا أداة مفتوحة المصدر تسمى Vulnhuntr ، مدعيا أنها يمكن أن تستغل نموذج CLAUDE AI من الأنثروبور لاكتشاف نقاط الضعف في يوم صفر في قاعدة كود بيثون. ومع ذلك ، أكد فريق Google أن الأداة لها استخدامات مختلفة ، واكتشاف Big Sleep نقاط الضعف المتعلقة بأمان الذاكرة.
حاليًا ، لا يزال Big Sleep في مرحلة البحث وتم اختباره بشكل أساسي على البرامج الصغيرة ذات النقاط الضعيفة المعروفة. هذه هي المرة الأولى التي يقوم فيها بتجربة في بيئة حقيقية. للاختبار ، قام فريق البحث بجمع العديد من التقديمات الأخيرة لقاعدة رمز SQLite ، وبعد التحليل ، قام بتعديل المحتوى السريع للنموذج ، وأخيراً وجد الضعف.
على الرغم من هذا الإنجاز ، يذكر فريق Google الجميع بأن هذه النتائج لا تزال في مرحلة تجريبية للغاية ، وأن اختبار الزغب الحالي الخاص بالهدف قد يكون فعالًا بنفس القدر في العثور على نقاط الضعف.
النقاط الرئيسية:
** من طراز AI من Google Big Sleep اكتشاف نقاط الضعف في أمان ذاكرة SQLite لأول مرة. **
** تم إصلاح الضعف قبل إصداره الرسمي ، مما يمثل تقدمًا جديدًا في الذكاء الاصطناعي في الاكتشاف الضعيف. **
** على الرغم من النتائج ، أكدت Google أن النتائج الحالية لا تزال تجريبية وأن الغموض لا يزال صالحًا. **
باختصار ، تُظهر حالة Big Sleep الناجحة إمكانات الذكاء الاصطناعي في مجال أمان البرمجيات ، ولكنها تذكرنا أيضًا بأن أدوات الذكاء الاصطناعى لا تزال في مرحلة التطوير وتحتاج إلى دمجها مع الأساليب التقليدية للعب دور مزيد من البحث مطلوب في المستقبل لتحسين.