في الآونة الأخيرة، حظيت القضايا الأمنية لنموذج الذكاء الاصطناعي باهتمام متزايد. حقق الباحثون في جامعة ولاية كارولينا الشمالية تقدما كبيرا عندما طوروا طريقة لاستخراج نماذج الذكاء الاصطناعي من خلال التقاط الإشارات الكهرومغناطيسية من أجهزة الكمبيوتر بدقة تزيد عن 99%. وقد أثار هذا الاكتشاف مخاوف في الصناعة بشأن حماية حقوق الملكية الفكرية في نماذج الذكاء الاصطناعي، خاصة في سياق أن شركات مثل OpenAI وAnthropic وGoogle استثمرت بكثافة في تطوير نماذج الملكية. يستكشف المقال التأثير المحتمل لهذه التكنولوجيا الجديدة وكيف يمكن للمؤسسات الاستجابة للمخاطر المتزايدة لسرقة نماذج الذكاء الاصطناعي، بالإضافة إلى تحليل التدابير الأمنية ذات الصلة واتجاهات التطوير المستقبلية.
ومؤخراً، اقترح باحثون في جامعة ولاية كارولينا الشمالية طريقة جديدة لاستخلاص نماذج الذكاء الاصطناعي من خلال التقاط الإشارات الكهرومغناطيسية المنبعثة من أجهزة الكمبيوتر، بدقة تزيد عن 99%. يمكن أن يشكل هذا الاكتشاف تحديًا أمام تطوير الذكاء الاصطناعي التجاري، خاصة وأن شركات مثل OpenAI وAnthropic وGoogle استثمرت بكثافة في النماذج الخاصة. ومع ذلك، يشير الخبراء إلى أن التأثير الفعلي لهذه التكنولوجيا، وكذلك التدابير الدفاعية، لا يزال غير واضح.
قال لارس نيمان، كبير مسؤولي التسويق في شركة CUDO Compute، إن سرقة الذكاء الاصطناعي لا تمثل مجرد خسارة للنموذج نفسه، ولكنها قد تؤدي أيضًا إلى سلسلة من ردود الفعل المتسلسلة، مثل استخدام المنافسين لسنوات من نتائج البحث والتطوير، والوكالات التنظيمية التي تحقق في الذكاء الاصطناعي. وحقوق الملكية، وحتى الدعاوى القضائية من العملاء الذين اكتشفوا أن "تفرد" الذكاء الاصطناعي الخاص بهم لم يكن فريدًا. قد يؤدي هذا الوضع إلى دفع الصناعة نحو عمليات تدقيق موحدة، مثل شهادة SOC2 أو ISO، للتمييز بين الشركات الآمنة والشركات غير المسؤولة.
في السنوات الأخيرة، أصبح تهديد هجمات القراصنة ضد نماذج الذكاء الاصطناعي خطيرًا بشكل متزايد. إن اعتماد عالم الأعمال على الذكاء الاصطناعي يجعل هذه المشكلة أكثر حدة. تظهر التقارير الأخيرة أنه تم تحميل آلاف الملفات الضارة على Hugging Face، وهو مستودع رئيسي لأدوات الذكاء الاصطناعي، مما يضر بشدة بالنماذج المستخدمة في صناعات مثل البيع بالتجزئة والخدمات اللوجستية والتمويل. وقد حذر خبراء الأمن القومي من أن التدابير الأمنية الضعيفة يمكن أن تترك أنظمة الملكية عرضة لخطر السرقة، كما يتضح من الخلل الأمني OpenAI. يمكن إجراء هندسة عكسية لنماذج الذكاء الاصطناعي المسروقة أو بيعها، الأمر الذي من شأنه أن يقوض استثمارات الشركة وتقويض الثقة، مما يسمح للمنافسين باللحاق بالركب بسرعة.
وكشف فريق البحث في جامعة ولاية كارولينا الشمالية عن معلومات أساسية حول بنية النموذج من خلال وضع مسبار بالقرب من وحدة معالجة موتر الحافة (TPU) الخاصة بجوجل وتحليل إشارته. ولا تتطلب طريقة الهجوم هذه الوصول المباشر إلى النظام، مما يعرض الملكية الفكرية للذكاء الاصطناعي لمخاطر أمنية خطيرة. وأكد المؤلف المشارك في الدراسة أيدين أيسو، الأستاذ المشارك في الهندسة الكهربائية وهندسة الكمبيوتر، أن بناء نموذج الذكاء الاصطناعي أمر مكلف ويتطلب الكثير من موارد الحوسبة، لذلك من الضروري منع سرقة النموذج.
مع تزايد استخدام تكنولوجيا الذكاء الاصطناعي على نطاق واسع، تحتاج الشركات إلى إعادة فحص بعض المعدات المستخدمة لمعالجة الذكاء الاصطناعي. يعتقد المستشار التكنولوجي سورييل أريلانو أن الشركات قد تنتقل إلى حوسبة أكثر مركزية وأمانًا أو تفكر في تقنيات بديلة أقل عرضة للسرقة. على الرغم من وجود خطر السرقة، يعمل الذكاء الاصطناعي أيضًا على تعزيز الأمن السيبراني، وتحسين كفاءة الاستجابة من خلال الكشف الآلي عن التهديدات وتحليل البيانات، مما يساعد على تحديد التهديدات المحتملة وتعلم كيفية الاستجابة للهجمات الجديدة.
أبرز النقاط:
أظهر الباحثون طريقة لاستخراج نماذج الذكاء الاصطناعي من خلال التقاط الإشارات الكهرومغناطيسية بدقة تزيد عن 99%.
قد تؤدي سرقة نماذج الذكاء الاصطناعي إلى قيام المنافسين باستغلال سنوات الشركة من نتائج البحث والتطوير، مما يؤثر على أمن الأعمال.
تحتاج الشركات إلى تعزيز الحماية الأمنية لنماذج الذكاء الاصطناعي للتعامل مع التهديد المتزايد لهجمات القراصنة.
بشكل عام، أصبح أمان نماذج الذكاء الاصطناعي محط اهتمام المؤسسات. في مواجهة تهديدات الأمن السيبراني المتزايدة التعقيد، تحتاج الشركات إلى اتخاذ تدابير فعالة لتعزيز حماية نماذج الذكاء الاصطناعي واستكشاف تقنيات الذكاء الاصطناعي الأكثر أمانًا لحماية حقوق الملكية الفكرية والمصالح التجارية.