Шокирующее исследование, опубликованное Стэнфордской интернет-обсерваторией, выявило огромный кэш изображений сексуального насилия над детьми в базе данных популярного генератора изображений с искусственным интеллектом. Это открытие вызвало всеобщую обеспокоенность и подчеркнуло потенциальные этические риски, связанные с технологией искусственного интеллекта. В исследовании отмечается, что некоторые крупные операторы баз данных изображений уже приняли меры по ограничению доступа, но для решения этой серьезной проблемы по-прежнему необходимы более активные действия, направленные на защиту детей и предотвращение неправомерного использования технологий искусственного интеллекта.
Согласно новому исследованию Стэнфордской интернет-обсерватории, базовая база данных популярного генератора изображений искусственного интеллекта содержит тысячи изображений сексуального насилия над детьми. Операторы некоторых крупнейших и наиболее часто используемых баз изображений закрыли к ним доступ. Это может повлиять на способность инструментов ИИ генерировать вредоносную информацию и усугубить предыдущие злоупотребления в отношении реальных жертв. Стэнфордская интернет-обсерватория призывает к более радикальным мерам для решения этой проблемы.
Результаты вызывают тревогу и подчеркивают важность обеспечения безопасности данных и этики при разработке искусственного интеллекта. В будущем необходимо усилить контроль над данными обучения ИИ и разработать более эффективные технические средства для выявления и фильтрации вредоносного контента, чтобы обеспечить здоровое развитие и безопасное применение технологий искусственного интеллекта и избежать их использования в незаконных и вредных целях.