فرضت وكالة حماية البيانات الإيطالية غرامة كبيرة قدرها 15 مليون يورو على ChatGPT التابع لشركة OpenAI، وأثار هذا الحادث قلقًا عالميًا واسع النطاق بشأن خصوصية بيانات الذكاء الاصطناعي. تنبع الغرامة من انتهاكات OpenAI المتعددة في عملية معالجة البيانات، بما في ذلك الفشل في الإبلاغ عن تسرب البيانات في الوقت المناسب، وعدم وجود أساس قانوني لمعالجة البيانات، والفشل في توفير الحماية الكاملة لشفافية بيانات المستخدم وحماية القاصرين. تسلط هذه الخطوة الضوء على موقف الاتحاد الأوروبي الصارم بشأن حماية بيانات المستخدم، كما أنها بمثابة دعوة للاستيقاظ لشركات الذكاء الاصطناعي الأخرى، وتحذرها من أنه يجب عليها وضع خصوصية البيانات وأمن المستخدم في المقام الأول أثناء تطوير تكنولوجيا الذكاء الاصطناعي.
في الآونة الأخيرة، أعلنت وكالة حماية البيانات الإيطالية عن فرض غرامة قدرها 15 مليون يورو على برنامج ChatGPT للذكاء الاصطناعي التابع لشركة OpenAI. يأتي القرار في أعقاب تحقيق بدأ في مارس 2023، والذي وجد أن OpenAI انتهكت لوائح حماية الخصوصية في جوانب متعددة.
وأشار التحقيق إلى أن OpenAI ارتكبت أخطاء جسيمة في تعاملها مع البيانات الشخصية. أولاً، فشلت الشركة في الإبلاغ عن خرق البيانات في الوقت المناسب، مما أثر بشكل خطير على خصوصية وأمن مستخدميها. بالإضافة إلى ذلك، تفتقر OpenAI إلى الأساس القانوني لمعالجة البيانات الشخصية، مما يعني أن المعلومات الشخصية للمستخدمين تُستخدم بشكل غير قانوني دون الحصول على إذن مناسب.
وفي الوقت نفسه، انتهكت شركة OpenAI أيضًا مبدأ الشفافية وفشلت في إبلاغ المستخدمين بوضوح بكيفية جمع بياناتهم واستخدامها، مما تسبب في شكوك المستخدمين حول معالجة معلوماتهم أثناء الاستخدام. بالإضافة إلى ذلك، وجد التحقيق أن OpenAI فشلت في تنفيذ إجراءات فعالة للتحقق من العمر، مما يعني أن القُصّر قد يكون لديهم أيضًا استخدام غير محمي لأداة الذكاء الاصطناعي.
ولتحقيق هذه الغاية، تطلب الهيئات التنظيمية الإيطالية من شركة OpenAI إطلاق حملة إعلامية مدتها ستة أشهر تهدف إلى تحسين فهم الجمهور لـ ChatGPT. وسيشرح هذا الحدث كيفية عمل نظام الذكاء الاصطناعي، بما في ذلك كيفية جمع البيانات وحقوق خصوصية المستخدمين، مما يضمن قدرة المستخدمين على فهم هذه التكنولوجيا واستخدامها بشكل أفضل.
أثناء التحقيق، نقلت OpenAI أيضًا مقرها الأوروبي إلى أيرلندا، وقد نقلت هذه الخطوة المسؤوليات التنظيمية ذات الصلة بالخصوصية إلى الجهات التنظيمية الأيرلندية، مما قد يؤدي إلى لوائح وتدابير مختلفة بشأن حماية الخصوصية في المستقبل.
ومن خلال هذا التحقيق، تأمل الحكومة الإيطالية في زيادة تعزيز حماية الخصوصية الشخصية، وتحسين شفافية ومسؤولية الشركات عند معالجة بيانات المستخدم، والتأكد من قدرة الجمهور على استخدام تكنولوجيا الذكاء الاصطناعي المتقدمة في بيئة آمنة وشفافة.
أبرز النقاط:
فرضت إيطاليا غرامة قدرها 15 مليون يورو على ChatGPT من OpenAI بسبب انتهاكات متعددة للخصوصية.
وجد التحقيق أن OpenAI فشلت في الإبلاغ عن خرق البيانات وافتقرت إلى الأساس القانوني لمعالجة البيانات والشفافية.
تحتاج OpenAI إلى إجراء حملة تثقيفية عامة مدتها ستة أشهر لتعزيز فهم المستخدمين لـ ChatGPT والوعي بخصوصية البيانات.
وقد دقت هذه الحادثة ناقوس الخطر بشأن تطور صناعة الذكاء الاصطناعي، مؤكدة على أهمية أمن البيانات وحماية الخصوصية، كما تشير إلى أن الإشراف في مجال الذكاء الاصطناعي سيكون أكثر صرامة في المستقبل، وتحتاج الشركات إلى إيلاء المزيد من الاهتمام لحماية بيانات المستخدم من أجل تحقيق التنمية المستدامة.