كشف تقرير حديث عن مشاكل خطيرة مخبأة في مولدات صور الذكاء الاصطناعي: تم استخدام آلاف الصور الفاحشة للأطفال لتدريب العارضات، مما سمح لنظام الذكاء الاصطناعي بتوليد صور إباحية واقعية مزيفة للأطفال وحتى تحويل صور المراهقين الحقيقيين إلى صور عارية. وقد أثار هذا مخاوف واسعة النطاق بشأن المخاطر المحتملة لتكنولوجيا توليد الصور باستخدام الذكاء الاصطناعي، كما سلط الضوء أيضًا على مدى إلحاح قضايا السلامة التقنية والقضايا الأخلاقية. ويدعو التقرير الشركات ذات الصلة بقوة إلى اتخاذ إجراءات استباقية لحل نقاط الضعف التقنية ومنع تكرار مثل هذه الحوادث مرة أخرى.
تم إخفاء آلاف الصور الفاحشة للأطفال في أساس مولد صور يعمل بالذكاء الاصطناعي، وفقًا لتقرير جديد، يحث الشركات على اتخاذ إجراءات لمعالجة العيوب في هذه التكنولوجيا. تسهل هذه الصور على أنظمة الذكاء الاصطناعي إنشاء صور مزيفة واقعية للأطفال وتحويل صور المراهقين الحقيقيين الذين يرتدون ملابس كاملة على وسائل التواصل الاجتماعي إلى صور عارية. لا يوجد حل سهل لهذه المشكلة وسيتطلب الأمر من الشركات اتخاذ إجراءات لمعالجة نقاط الضعف في التكنولوجيا. ووفقا للتقرير، أثار هذا مخاوف بشأن المخاطر المحتملة في مولدات الصور ذات الذكاء الاصطناعي.
تتطور تكنولوجيا توليد الصور بالذكاء الاصطناعي بسرعة، ولكنها تنطوي أيضًا على مخاطر كبيرة. يذكرنا إصدار هذا التقرير بأنه يجب علينا الاهتمام بقضايا الأخلاق والسلامة أثناء تطوير التكنولوجيا، واستكشاف الإشراف والحلول الفعالة بشكل فعال، وبناء بيئة تطبيقات ذكاء اصطناعي آمنة وموثوقة بشكل مشترك. وبهذه الطريقة فقط يمكننا أن نضمن أن تكنولوجيا الذكاء الاصطناعي تعود بالنفع على البشرية بدلا من التسبب في الأذى.