في الآونة الأخيرة ، اجتذب اكتشاف اختراق في مجال أبحاث الذكاء الاصطناعي اهتمامًا واسع النطاق. من خلال تقنية مبتكرة تسمى "Poetry Attack" ، كشف الباحثون بنجاح عن مصدر بيانات التدريب لنموذج ChatGPT من Openai. هذا الاكتشاف لا يعرض فقط نقاط الضعف الأمنية المحتملة في نماذج اللغة الكبيرة الحالية ، ولكن يبدو أيضًا إنذارًا لآلية حماية الخصوصية لأنظمة الذكاء الاصطناعى.
تتمثل الاستراتيجية الأساسية لـ "الهجوم الشعري" في تحفيز نموذج ChatGPT لتسرب المعلومات الحساسة الواردة في بيانات التدريب من خلال تكرار كلمات أو عبارات محددة. ما هو صادم هو أن طريقة الهجوم البسيطة على ما يبدو يمكن أن تستخرج بنجاح بيانات الخصوصية الشخصية بما في ذلك أرقام الهواتف وعناوين البريد الإلكتروني وما إلى ذلك. يبرز اكتشاف هذا الضعف ضعف أنظمة الذكاء الاصطناعى الحالية في أمان البيانات.
أبلغ فريق البحث رسميًا Openai بهذه الثغرة الأمنية في 30 أغسطس ، ولكن حتى الآن ، لم يستجب Openai حتى الآن. أثار هذا الحادث مرة أخرى تفكير الصناعة المتعمق في شفافية وأمن أنظمة الذكاء الاصطناعي ، كما دفع المؤسسات ذات الصلة إلى إعادة فحص عملية تطوير ونشر نماذج الذكاء الاصطناعي.
بالإضافة إلى قضايا الأمن ، تؤكد هذه الدراسة أيضًا على قضايا التكلفة البيئية في تطوير تكنولوجيا الذكاء الاصطناعي. يشير الباحثون إلى أن الطاقة التي تستهلكها نماذج الذكاء الاصطناعى التوليدي عند إنشاء النص والصور مدهشة ، وأن نموذج الاستهلاك عالي الطاقة هذا يتعارض مع مفهوم التنمية المستدامة. لذلك ، أثناء الترويج للتقدم في تقنية الذكاء الاصطناعي ، أصبحت كيفية تحقيق طريقة أكثر ملاءمة للبيئة لاستخدام الذكاء الاصطناعي مشكلة مهمة تحتاج إلى حلها بشكل عاجل.
لا تكشف هذه الدراسة فقط عن العيوب الفنية في أنظمة الذكاء الاصطناعى الحالية ، ولكنها تشير أيضًا إلى اتجاه التطوير المستقبلي لصناعة الذكاء الاصطناعي. إنه يذكرنا أنه أثناء متابعة الاختراقات في تقنية الذكاء الاصطناعي ، يجب أن نتعامل بعناية مع القضايا الرئيسية مثل حماية الخصوصية واستهلاك الطاقة. فقط من خلال تحقيق التوازن بين العلاقة بين الابتكار التكنولوجي والخصوصية وحماية الأمن وحماية البيئة ، يمكننا أن نضمن أن تكنولوجيا الذكاء الاصطناعى تفيد المجتمع البشري حقًا.