كشفت دراسة مروعة نشرها مرصد ستانفورد للإنترنت عن وجود مخبأ ضخم لصور الاعتداء الجنسي على الأطفال في قاعدة البيانات خلف مولد صور الذكاء الاصطناعي الشهير. أثار هذا الاكتشاف قلقًا واسع النطاق وسلط الضوء على المخاطر الأخلاقية المحتملة لتكنولوجيا الذكاء الاصطناعي. وتشير الدراسة إلى أن بعض مشغلي قواعد بيانات الصور الكبيرة قد اتخذوا بالفعل تدابير لتقييد الوصول، ولكن لا تزال هناك حاجة إلى مزيد من الإجراءات الاستباقية لمعالجة هذه المشكلة الخطيرة لحماية الأطفال ومنع إساءة استخدام تكنولوجيا الذكاء الاصطناعي.
تحتوي قاعدة البيانات الأساسية لمولد صور الذكاء الاصطناعي الشهير على آلاف الصور للاعتداء الجنسي على الأطفال، وفقًا لدراسة جديدة أجراها مرصد ستانفورد للإنترنت. يمتلك مشغلو بعض قواعد بيانات الصور الأكبر والأكثر استخدامًا إمكانية الوصول إليها بشكل مغلق. وقد يؤثر ذلك على قدرة أدوات الذكاء الاصطناعي على توليد نتائج ضارة ويؤدي إلى تفاقم الانتهاكات السابقة للضحايا الفعليين. ويدعو مرصد ستانفورد للإنترنت إلى اتخاذ تدابير أكثر جذرية لمعالجة المشكلة.
النتائج مثيرة للقلق وتسلط الضوء على أهمية ضمان أمن البيانات والأخلاقيات في تطوير الذكاء الاصطناعي. وفي المستقبل، من الضروري تعزيز الإشراف على بيانات تدريب الذكاء الاصطناعي وتطوير وسائل تقنية أكثر فعالية لتحديد وتصفية المحتوى الضار لضمان التطوير الصحي والتطبيق الآمن لتكنولوجيا الذكاء الاصطناعي وتجنب استخدامها لأغراض غير قانونية وضارة.