Недавний отчет выявил серьезные проблемы, скрытые в генераторах изображений ИИ: для обучения моделей использовались тысячи непристойных фотографий детей, что позволило системе ИИ генерировать реалистичные поддельные изображения детской порнографии и даже преобразовывать фотографии реальных подростков в изображения обнаженной натуры. Это вызвало широкую обеспокоенность по поводу потенциальных рисков, связанных с технологией генерации изображений с помощью искусственного интеллекта, а также подчеркнуло актуальность вопросов технической безопасности и этики. Отчет настоятельно призывает соответствующие компании принять активные меры для устранения технических уязвимостей и предотвращения повторения подобных инцидентов.
Согласно новому отчету, который призывает компании принять меры для устранения недостатков в технологии, тысячи непристойных фотографий детей были спрятаны в основании генератора изображений искусственного интеллекта. Эти изображения позволяют системам искусственного интеллекта создавать реалистичные поддельные изображения детей и превращать фотографии реальных, полностью одетых подростков в социальных сетях в обнаженные фотографии. Простого решения этой проблемы не существует, и это потребует от компаний принятия мер по устранению уязвимостей в технологиях. Согласно отчету, это вызвало обеспокоенность по поводу потенциальных рисков в генераторах изображений ИИ.
Технология генерации изображений с помощью искусственного интеллекта быстро развивается, но она также несет в себе огромные риски. Публикация этого отчета напоминает нам, что мы должны уделять внимание вопросам этики и безопасности при разработке технологий, активно изучать эффективный контроль и решения, а также совместно создавать безопасную и надежную среду приложений ИИ. Только таким образом мы сможем гарантировать, что технология искусственного интеллекта принесет пользу человечеству, а не причинит ему вред.