أطلقت هيئة تنظيم حماية البيانات في إيطاليا اتهامات رسمية ضد ChatGPT من OpenAI، متهمة إياها بانتهاك لوائح اللائحة العامة لحماية البيانات، والتي سيكون لها تأثير كبير على صناعة الذكاء الاصطناعي. إذا تبين أن OpenAI قد انتهكت القواعد، فسوف تواجه غرامات باهظة. جوهر الاتهام هو أن OpenAI ربما جمعت بيانات شخصية من الإنترنت العام لتدريب ChatGPT دون موافقة المستخدم، وهو ما ينتهك بشكل مباشر المبادئ الأساسية للقانون العام لحماية البيانات بشأن خصوصية البيانات وموافقة المستخدم. أثارت هذه الخطوة مناقشات واسعة النطاق حول مصدر وأمن البيانات لبيانات تدريب نماذج اللغة واسعة النطاق، كما دقت ناقوس الخطر لشركات الذكاء الاصطناعي الأخرى، مذكّرة إياها بأنها بحاجة إلى توخي المزيد من الحذر في جمع البيانات واستخدامها، والامتثال الصارم لـ لوائح حماية البيانات ذات الصلة.
اتهمت هيئة تنظيم حماية البيانات في إيطاليا رسميًا مطور OpenAI ChatGPT بانتهاك لوائح القانون العام لحماية البيانات. إذا كان هذا صحيحًا، فقد تواجه OpenAI غرامات باهظة. ومفتاح الاتهام هو أن الشركة ربما تكون قد انتهكت قواعد القانون العام لحماية البيانات وحصلت على بيانات شخصية من الإنترنت العام لتدريب الروبوتات، الأمر الذي قد يسبب مشاكل دون الحصول على موافقة المواطن.
وتسلط هذه الحادثة الضوء على أهمية خصوصية البيانات وأخلاقياتها في تطوير الذكاء الاصطناعي. في المستقبل، تحتاج شركات الذكاء الاصطناعي إلى إيلاء المزيد من الاهتمام للامتثال للبيانات واستكشاف طرق أكثر أمانًا ومسؤولية لمعالجة البيانات. وبهذه الطريقة فقط يمكننا ضمان التطور الصحي لتكنولوجيا الذكاء الاصطناعي وتزويد المستخدمين بخدمات أكثر أمانًا وموثوقية.