كشف الباحث الأمني الألماني بنجامين فليش مؤخرًا عن ثغرة أمنية خطيرة في واجهة برمجة تطبيقات ChatGPT الخاصة بـ OpenAI، والتي يمكن استغلالها بشكل ضار لشن هجمات رفض الخدمة الموزعة (DDoS). يمكن للمهاجم استخدام برنامج الزاحف الخاص بـ ChatGPT لإرسال عدد كبير من الطلبات إلى موقع الويب المستهدف من خلال طلب HTTP بسيط، مما يتسبب في شل موقع الويب. تنبع هذه الثغرة الأمنية من خلل في ChatGPT API عند معالجة طلبات HTTP POST الموجهة إلى موقع ويب معين، ويمكن للمهاجم تجاوز آلية الأمان وشن هجوم واسع النطاق على موقع الويب المستهدف.
مؤخرًا، نشر الباحث الأمني الألماني بنجامين فليش تقريرًا عن GitHub من Microsoft، مشيرًا إلى أن واجهة ChatGPT API الخاصة بـ OpenAI بها ثغرة أمنية خطيرة يمكن استغلالها لشن هجمات رفض الخدمة الموزعة (DDoS). تسمح هذه الثغرة الأمنية للمهاجم باستخدام برنامج زاحف ChatGPT لبدء طلبات شبكة واسعة النطاق إلى أي موقع ويب من خلال طلب HTTP بسيط، مما قد يتسبب في شل موقع الويب المستهدف.
وفقًا لتقرير Flesch، تُظهر واجهة برمجة تطبيقات ChatGPT عيوبًا خطيرة عند التعامل مع طلبات HTTP POST لمواقع ويب محددة. عندما يشير ChatGPT إلى موقع ويب، فإنه يستدعي نقطة نهاية API تسمى "الإسنادات" لطلب معلومات من موقع الويب. إذا أرسل أحد المهاجمين طلبًا إلى واجهة برمجة التطبيقات التي تحتوي على عدد كبير من الروابط المختلفة، فسيقوم زاحف ChatGPT بالوصول إلى هذه الروابط في وقت واحد، مما يؤدي إلى إغراق موقع الويب المستهدف بالطلبات.
وأشار فليش إلى أن واجهة برمجة التطبيقات (API) لا تتحقق مرة أخرى من الروابط الواردة، ولا تحد من عدد الروابط. وهذا يعني أن المهاجم يمكنه إرسال آلاف الروابط في طلب واحد، تشير جميعها إلى نفس موقع الويب المستهدف. باستخدام أداة بسيطة، يمكن للمهاجم إرسال طلب إلى نقطة نهاية ChatGPT دون مصادقة، وسترسل خوادم OpenAI طلبًا لكل رابط، ومن المحتمل أن ترسل ما بين 20 إلى 5000 طلب في الثانية إلى موقع الويب المستهدف.
نظرًا لأن الطلبات تأتي من عناوين IP مختلفة، فمن الصعب على الضحية اكتشاف حدوث الهجوم. حتى إذا قام الضحية بتمكين جدار الحماية لحظر عنوان IP الخاص بـ ChatGPT، فسيظل الزاحف يعيد إرسال الطلب خلال المللي ثانية التالية. وقال Flesch إنه أبلغ بالمشكلة إلى OpenAI وMicrosoft عبر قنوات متعددة، لكنه لم يتلق ردًا حتى الآن.
بالإضافة إلى ثغرات DDoS، ذكر Flesch أيضًا أن هناك مشكلات أمنية أخرى تتعلق بواجهة برمجة التطبيقات (API)، بما في ذلك ثغرات الحقن الفوري. يتيح ذلك للزاحف الإجابة على الأسئلة من خلال نقطة نهاية واجهة برمجة التطبيقات نفسها بدلاً من مجرد الحصول على معلومات موقع الويب. وتساءل فليش عن سبب عدم قيام OpenAI بتنفيذ الإجراءات الأمنية الأساسية لمنع هذه الانتهاكات، مشيرًا إلى أن هذه هي منطق التحقق البسيط الذي تم استخدامه بشكل شائع من قبل مطوري البرامج لسنوات عديدة.
وهو يعتقد أن هذه الثغرة الأمنية قد تشير إلى أن OpenAI فشلت في مراعاة الأمن بشكل كامل عند تطوير "وكلاء الذكاء الاصطناعي" الخاص بها. بالنسبة لبرنامج زاحف الويب الذي يعمل لفترة طويلة، يبدو عدم وجود حد لعدد الطلبات إلى نفس موقع الويب أمرًا غير معقول بشكل خاص.
تسليط الضوء على:
1. تبين أن واجهة ChatGPT API الخاصة بـ OpenAI تحتوي على ثغرات أمنية ويمكن استخدامها لشن هجمات DDoS.
2. يمكن للمهاجم إرسال آلاف الروابط إلى نفس موقع الويب بطلب واحد، مما يتسبب في إغراق موقع الويب المستهدف.
3. تم الإبلاغ عن هذه الثغرة الأمنية إلى OpenAI وMicrosoft، ولكن لم يتم تلقي أي رد، مما يدل على الإهمال في إدارة الأمن.
يسلط هذا الحادث الضوء على أهمية أمان واجهة برمجة التطبيقات (API) لنموذج اللغة على نطاق واسع ويكشف أيضًا عن عيوب OpenAI في إدارة الأمان. ومن المأمول أن تتمكن OpenAI من إصلاح هذه الثغرة الأمنية في أقرب وقت ممكن وتعزيز إجراءات الحماية الأمنية لواجهة برمجة التطبيقات (API) الخاصة بها لتجنب وقوع حوادث مماثلة مرة أخرى وضمان أمان بيانات المستخدم والشبكة.