ومؤخرًا، رفعت شركة مايكروسوفت دعوى قضائية في فرجينيا بالولايات المتحدة الأمريكية، ضد مجموعة من المتسللين الذين قاموا بغزو منصة Azure OpenAI، وتسلط هذه الحادثة الضوء على التحديات المتزايدة الخطورة في مجال أمن الذكاء الاصطناعي. يستخدم المتسللون بيانات اعتماد العملاء التي تم الحصول عليها بشكل غير قانوني لتجاوز الحماية الأمنية، وليس فقط للتلاعب بوظائف النظام الأساسي، ولكن أيضًا إعادة بيعها وتقديم التوجيه وتحريض الآخرين على استخدام الذكاء الاصطناعي لإنشاء محتوى ضار. لم تنتهك هذه الخطوة شروط خدمة Microsoft فحسب، بل انتهكت أيضًا العديد من القوانين الأمريكية.
ومؤخرًا، رفعت شركة مايكروسوفت دعوى قضائية ضد مجموعة من المتسللين في المحكمة الجزئية الأمريكية للمنطقة الشرقية من ولاية فرجينيا، متهمة إياهم بالتطفل بشكل غير قانوني على منصة Azure OpenAI واستخدام الخدمة لإنشاء كمية كبيرة من المحتوى الضار. وقد جعل هذا الحادث الناس يهتمون أكثر بالسلامة والمخاطر في مجال الذكاء الاصطناعي.
وفقًا للدعوى القضائية التي رفعتها Microsoft، جاء المتسللون من الخارج ونجحوا في تجاوز الحماية الأمنية ودخلوا أنظمة Azure OpenAI من خلال الاستيلاء على بيانات اعتماد العملاء على مواقع الويب العامة. بعد الوصول إلى العملاء، لم يعبث المتسللون بوظائف النظام فحسب، بل أعادوا بيعها أيضًا لمستخدمين ضارين آخرين، وقدموا تعليمات مفصلة حول كيفية استخدام أدوات الذكاء الاصطناعي هذه لإنشاء محتوى غير قانوني. ورغم أن مايكروسوفت لم تكشف عن الطبيعة المحددة للمحتوى الذي أنشأه هؤلاء المتسللون، إلا أنها قالت إن المحتوى ينتهك بشكل خطير سياسات الشركة وشروط الخدمة.
ردًا على هذا الاختراق الأمني، اعتمدت مايكروسوفت عددًا من الإجراءات الأمنية الجديدة التي تهدف إلى تعزيز القدرات الدفاعية لمنصة Azure OpenAI ومنع وقوع حوادث مماثلة مرة أخرى. وفي الوقت نفسه، طلبت مايكروسوفت أيضًا من المحكمة في الدعوى الاستيلاء على مواقع الويب المتعلقة بعمليات القرصنة من أجل جمع الأدلة وتعقب المسؤولين وتفكيك البنية التحتية التي تدعم الأنشطة غير القانونية.
وأشارت مايكروسوفت إلى أن تصرفات هؤلاء المتسللين تنتهك العديد من القوانين الأمريكية، بما في ذلك قانون الاحتيال وإساءة استخدام الكمبيوتر، وقانون حقوق النشر الرقمية للألفية، وقانون الابتزاز الفيدرالي. وتأمل مايكروسوفت في محاسبة هؤلاء المجرمين من خلال الوسائل القانونية.
تُظهر خطوة Microsoft أن شركات التكنولوجيا الكبرى تستجيب بنشاط لمخاطر أمان الذكاء الاصطناعي وتسعى إلى إيجاد وسائل قانونية لمكافحة السلوك الضار. ويتطلب تعزيز أمن الذكاء الاصطناعي بذل جهود مشتركة من جانب الشركات والحكومات والأفراد لضمان التطور الصحي لهذه التكنولوجيا وتجنب إساءة استخدامها.