في الآونة الأخيرة، أثارت منصة الوسائط الاجتماعية X ضجة بسبب استخدام بيانات المستخدم في الاتحاد الأوروبي لتدريب برنامج الدردشة الآلي الخاص بالذكاء الاصطناعي Grok دون موافقة المستخدم. أعربت لجنة حماية البيانات الأيرلندية (DPC) عن "دهشتها" من خطوة X وبدأت تحقيقًا. سلطت هذه الحادثة الضوء على التناقض بين تطور الذكاء الاصطناعي وحماية خصوصية البيانات، ودفعت مرة أخرى اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي إلى الواجهة. قدمت تسع دول في الاتحاد الأوروبي شكاوى ضد X، متهمة إياها بانتهاك القانون العام لحماية البيانات ومعالجة بيانات حوالي 60 مليون مستخدم في الاتحاد الأوروبي دون موافقة.
في الآونة الأخيرة، منصة التواصل الاجتماعي وفي نهاية الشهر الماضي فقط، اكتشف مستخدمو الإنترنت اليقظون أن X قد أضاف بهدوء خيارًا في الإعدادات، مما يشير إلى أنه بدأ في معالجة بيانات منشورات مستخدمي الاتحاد الأوروبي للتدريب على الذكاء الاصطناعي. وقد لفت هذا انتباه لجنة حماية البيانات الأيرلندية (DPC)، التي أعربت عن "دهشتها".
وفقًا للائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي، إذا أرادت الشركات استخدام البيانات الشخصية، فيجب أن يكون لديها أساس قانوني، وإلا فإنها قد تواجه غرامات تصل إلى 4٪ من حجم الأعمال السنوي العالمي. كانت هناك تسع شكاوى من النمسا وبلجيكا وفرنسا واليونان وأيرلندا وإيطاليا وهولندا وبولندا وإسبانيا، زاعمة أن X عالجت بيانات ما يقرب من 60 مليون مستخدم في الاتحاد الأوروبي لبناء نماذج الذكاء الاصطناعي دون موافقتهم.
وقال ماكس شريمز، رئيس مؤسسة noyb الخيرية للخصوصية، في بيان: "إن كفاءة تطبيق DPC كانت مخيبة للآمال خلال السنوات القليلة الماضية. نريد التأكد من أن تويتر يمتثل لقانون الاتحاد الأوروبي، على الأقل في هذه الحالة من خلال مطالبة المستخدمين أوافق. "في الواقع، بدأت DPC إجراءات قانونية ضد معالجة X لبيانات تدريب الذكاء الاصطناعي، سعيًا للحصول على أمر قضائي إلزامي يلزمها بوقف هذا السلوك. ومع ذلك، يعتقد نويب أن تدابير DPC ليست كافية لأنه لا يمكن للمستخدمين طلب حذف البيانات التي تمت معالجتها بالفعل. ولتحقيق هذه الغاية، قدم نويب شكاوى بشأن القانون العام لحماية البيانات (GDPR) في أيرلندا وسبع دول أخرى.
تنص الشكوى على أن X ليس لديه أساس قانوني لمعالجة بيانات المستخدم هذه. على الرغم من أن المنصة تدعي استخدام "المصالح المشروعة" كأساس لمعالجة البيانات المتعلقة بالذكاء الاصطناعي، إلا أن خبراء الخصوصية يقولون إن X يجب أن يحصل على موافقة المستخدم. ذكر شريمز: "تحتاج الشركات التي تتفاعل بشكل مباشر مع المستخدمين فقط إلى عرض رسالة نعم/لا قبل استخدام بياناتها، وهو ما يتم بالفعل في العديد من السيناريوهات الأخرى، لذلك فهو أيضًا ممكن تمامًا في تدريب الذكاء الاصطناعي.
قبل ذلك، قامت Meta أيضًا بتعليق خطط مماثلة بسبب شكاوى من noyb وتدخل الهيئات التنظيمية. ومع ذلك، يبدو أن نهج X قد سمح لهذا الأمر بالمرور دون أن يلاحظه أحد لأسابيع. وفقًا لـ DPC، قام X بمعالجة بيانات مستخدمي الاتحاد الأوروبي في الفترة ما بين 7 مايو و1 أغسطس. وعلى الرغم من إضافة خيار جديد إلى الإصدار الإلكتروني من X في نهاية شهر يوليو للسماح للمستخدمين بإلغاء الاشتراك في معالجة البيانات، إلا أنه قبل ذلك لم يكن لدى المستخدمين أي وسيلة لمعرفة وجود هذه المعلومات.
وهذا أمر مهم لأن هدف القانون العام لحماية البيانات (GDPR) هو حماية مستخدمي الاتحاد الأوروبي من الاستخدام غير المدروس للبيانات. في المناقشة حول الأساس القانوني لل بالإضافة إلى ذلك، أشار نويب أيضًا إلى أن العديد من أنظمة الذكاء الاصطناعي التوليدية غالبًا ما تدعي أنها غير قادرة على الامتثال للمتطلبات الأساسية الأخرى للقانون العام لحماية البيانات، مثل الحق في النسيان أو الحق في الحصول على البيانات الشخصية.
أثارت تصرفات X مخاوف بشأن خصوصية البيانات في الاتحاد الأوروبي وأطلقت أجراس الإنذار للشركات الأخرى. في عصر التطور السريع للذكاء الاصطناعي، ستصبح كيفية الموازنة بين الابتكار التكنولوجي وحماية خصوصية المستخدم تحديًا مستمرًا. وفي المستقبل، قد تحدث حوادث مماثلة في كثير من الأحيان، الأمر الذي يتطلب من الشركات والهيئات التنظيمية العمل معًا لإنشاء آلية أكثر اكتمالا لحماية البيانات.