أصدر الاتحاد الأوروبي مؤخرًا المسودة الأولى لقواعد السلوك لنماذج الذكاء الاصطناعي العام (GPAI)، والتي تهدف إلى توحيد تطوير الذكاء الاصطناعي وتزويد الشركات بمبادئ توجيهية واضحة للامتثال لتجنب الغرامات الضخمة. تغطي المدونة مجالات رئيسية مثل الشفافية وحقوق النشر وتقييم المخاطر وتخفيف المخاطر، وتضع عقوبات صارمة في حالة عدم الامتثال. سيقوم محرر Downcodes بشرح هذه الوثيقة المهمة بالتفصيل لك.
GPAI عبارة عن ذكاء اصطناعي مدرب يتمتع بقدرة حوسبة إجمالية تزيد عن 10²⁵ FLOPs. الشركات التي من المتوقع أن تخضع لإرشادات الاتحاد الأوروبي تشمل OpenAI وGoogle وMeta وAnthropic وMistral.
تتناول الوثيقة العديد من المجالات الأساسية لواضعي GPAI: الشفافية، والامتثال لحقوق الطبع والنشر، وتقييم المخاطر، وتخفيف المخاطر الفنية/الحوكمة. تؤكد اللائحة على الشفافية في تطوير الذكاء الاصطناعي وتطلب من شركات الذكاء الاصطناعي تقديم معلومات حول برامج زحف الويب المستخدمة لتدريب النماذج.
يهدف قسم تقييم المخاطر إلى منع الجرائم الإلكترونية والتمييز واسع النطاق وفقدان السيطرة على الذكاء الاصطناعي. يجب على الشركات المصنعة للذكاء الاصطناعي اعتماد إطار أمني (SSF) لتحليل سياسات إدارة المخاطر الخاصة بها والتخفيف منها وفقًا للمخاطر النظامية.
ستواجه الشركات التي تنتهك قانون الذكاء الاصطناعي عقوبات شديدة وقد يتم تغريمها بما يصل إلى 35 مليون يورو (حاليًا 36.8 مليون دولار) أو ما يصل إلى 7% من الأرباح العالمية السنوية، أيهما أعلى.
يدعو الاتحاد الأوروبي أصحاب المصلحة إلى تقديم تعليقاتهم عبر منصة Futurium المخصصة بحلول 28 نوفمبر للمساعدة في تحسين المسودة التالية. ومن المتوقع أن يتم الانتهاء من القواعد بحلول 1 مايو 2025.
وتهدف خطوة الاتحاد الأوروبي إلى تحقيق التوازن بين ابتكار الذكاء الاصطناعي وإدارة المخاطر وتوفير ضمانة قوية للتنمية الصحية للذكاء الاصطناعي. تستحق المسودة النهائية لهذا القانون اهتمامًا وثيقًا من الصناعة، وسيؤثر تأثيرها على صناعة الذكاء الاصطناعي العالمية. سيستمر محرر Downcodes في المتابعة والإبلاغ عن التقدم المحرز في هذا الشأن.