مع التطور السريع لتكنولوجيا الذكاء الاصطناعي، وخاصة نماذج اللغات الكبيرة (LLMs)، أصبحت قضاياها الأمنية بارزة بشكل متزايد. ومع ذلك، فإن القوانين واللوائح الحالية، وخاصة قانون الاحتيال وإساءة استخدام الكمبيوتر (CFAA) في الولايات المتحدة، غير كافية للتعامل مع المخاطر القانونية في أبحاث أمن الذكاء الاصطناعي. أشار باحثون من جامعة هارفارد مؤخرًا في مؤتمر بلاك هات إلى أن قانون CFAA فشل في حماية الباحثين في مجال أمن الذكاء الاصطناعي بشكل فعال وقد يعرضهم بدلاً من ذلك لمخاطر قانونية، مما أثار اهتمامًا ومناقشة واسعة النطاق في الصناعة حول الإطار القانوني لأبحاث أمن الذكاء الاصطناعي. ستوفر هذه المقالة تحليلاً متعمقًا لهذا الأمر.
اليوم، مع التطور السريع للتكنولوجيا الحديثة، أصبح الذكاء الاصطناعي، وخاصة نماذج اللغات الكبيرة (LLMs)، محور الاهتمام تدريجيًا. ومع ذلك، يبدو أن قوانين الأمن السيبراني الأمريكية تفشل في مواكبة هذا المجال سريع التغير. في الآونة الأخيرة، أشار مجموعة من الباحثين من جامعة هارفارد في مؤتمر بلاك هات إلى أن قانون الاحتيال وإساءة استخدام الكمبيوتر (CFAA) الحالي لا يحمي بشكل فعال المشاركين في أبحاث أمن الذكاء الاصطناعي وقد يعرضهم بدلاً من ذلك لمخاطر قانونية.
ملاحظة لمصدر الصورة: يتم إنشاء الصورة بواسطة الذكاء الاصطناعي ومزود خدمة ترخيص الصورة Midjourney
ومن بين هؤلاء العلماء كندرا ألبرت، ورام شانكار سيفا كومار، وجوناثون بيني من كلية الحقوق بجامعة هارفارد. وذكر ألبرت في مقابلة أن القوانين الحالية لا تحدد بوضوح سلوكيات مثل "هجمات الحقن التلميحية"، مما يجعل من الصعب على الباحثين الحكم على ما إذا كانت أفعالهم تنتهك القانون. وقالت إنه على الرغم من أن بعض الإجراءات، مثل الوصول إلى النماذج دون إذن، تعتبر غير قانونية بشكل واضح، إلا أن السؤال المطروح أيضًا هو ما إذا كان الباحثون الذين تمكنوا من الوصول إلى أنظمة الذكاء الاصطناعي يستخدمون تلك النماذج بطرق لا يقصدونها.
في عام 2021، غيرت قضية فان بورين ضد الولايات المتحدة التي رفعتها المحكمة العليا الأمريكية تفسير قانون CFAA، حيث نصت على أن القانون ينطبق فقط على أولئك الذين لديهم وصول غير مصرح به إلى المعلومات داخل الكمبيوتر. يبدو هذا الحكم منطقيًا في أنظمة الكمبيوتر التقليدية، لكنه لا يصل إلى المستوى المطلوب عندما يتعلق الأمر بنماذج اللغات الكبيرة. وأشار ألبرت إلى أن استخدام اللغة الطبيعية للتفاعل مع الذكاء الاصطناعي يجعل هذا التعريف القانوني أكثر تعقيدا، وفي كثير من الأحيان، لا تعادل استجابة الذكاء الاصطناعي استرجاع المعلومات من قاعدة البيانات.
وفي الوقت نفسه، ذكر سيفاكومار أيضًا أن المناقشات القانونية حول أبحاث أمن الذكاء الاصطناعي حظيت باهتمام أقل بكثير من قضايا مثل حقوق النشر، وهو نفسه ليس متأكدًا مما إذا كان سيتم حمايته عند إجراء اختبارات هجوم معينة. وقال ألبرت إنه نظرا لعدم اليقين بشأن القانون الحالي، قد يتم توضيح هذه المسألة من خلال التقاضي في المحكمة في المستقبل، ولكن في الوقت الحاضر، يشعر العديد من الباحثين "ذوي النوايا الحسنة" بالخسارة.
وفي هذه البيئة القانونية، ينصح ألبرت الباحثين الأمنيين بطلب الدعم القانوني للتأكد من أن أفعالهم لا تنتهك القانون. كما أنها تشعر بالقلق من أن الأحكام القانونية الغامضة قد تخيف الباحثين المحتملين وتسمح للمهاجمين الخبيثين بالإفلات من العقاب، مما يخلق مخاطر أمنية أكبر.
تسليط الضوء على:
لا يوفر قانون مكافحة الاحتيال وإساءة استخدام الكمبيوتر في الولايات المتحدة حماية كافية للباحثين في مجال أمن الذكاء الاصطناعي وقد يواجهون مخاطر قانونية.
تفتقر القوانين الحالية إلى تعريفات واضحة لأفعال مثل الهجمات بالحقن، مما يجعل من الصعب على الباحثين تحديد مدى شرعيتها.
ويعتقد الباحثون أن إجراءات المحكمة قد تكون ضرورية في المستقبل لتوضيح الأحكام القانونية ذات الصلة وحماية الباحثين ذوي النية الحسنة.
وبشكل عام، فإن المعضلات القانونية في مجال أبحاث أمن الذكاء الاصطناعي تتطلب الاهتمام. وفي ضوء خصائص نماذج اللغات الكبيرة، يجب صياغة قوانين ولوائح أكثر وضوحًا واستهدافًا لحماية حقوق ومصالح الباحثين الشرعيين، وتعزيز التطوير الصحي لأبحاث أمن الذكاء الاصطناعي، ومكافحة الهجمات الضارة بشكل فعال. وبهذه الطريقة فقط يمكننا ضمان التطور الصحي لتكنولوجيا الذكاء الاصطناعي وإفادة البشرية جمعاء.