По данным Economic Daily, в Интернете привлекла внимание серия дублированных видеороликов, созданных с помощью ИИ. Они не только реалистичны, но и звуковые характеристики почти такие же, как у реальных людей. 100 миллионов раз за короткий период времени. Однако содержание этих видеороликов не имеет ничего общего с общественными деятелями на изображениях и было удалено с платформы.
Развитие технологии искусственного интеллекта снизило порог для глубокой подделки и дешевого массового производства, а изображения, созданные искусственным интеллектом, видео, меняющие голос и лица, появились в больших количествах. Хотя эти видеоролики привлекают внимание, нельзя игнорировать скрытые за ними риски.
В настоящее время создание и распространение ложной информации стало глобальной проблемой, а использование технологии синтеза искусственного интеллекта для придания ей реалистичности ставит обычных людей перед трудностями в идентификации информации. «Отчет о безопасности искусственного интеллекта за 2024 год» показывает, что в 2023 году мошенничество с глубокой подделкой данных с использованием искусственного интеллекта вырастет в 30 раз, что представляет собой серьезную угрозу сетевой безопасности и социальной безопасности. Распространение ложной информации не только нарушает нормальный порядок киберпространства, но и может передавать негативные эмоции из виртуального мира в реальность, усугубляя социальную тревогу.
Чтобы справиться с хаосом, таким как глубокая фальсификация, требуется многостороннее сотрудничество и совместное управление. В настоящее время в нашей стране приняты законы и постановления, такие как «Правила об углубленном управлении синтезом информационных услуг Интернета», чтобы усилить управление контентом из источника. В то же время выпуск «Мер маркировки синтетического контента, созданного искусственным интеллектом (проект для комментариев)» также отмечает, что на национальном уровне усиливается надзор за технологиями искусственного интеллекта. Только позволив искусственному интеллекту развиваться здорово в правовых рамках, соответствующих требованиям, люди смогут по-настоящему наслаждаться дивидендами, приносимыми технологическими изменениями, и способствовать здоровому развитию индустрии искусственного интеллекта.
В качестве важной части распространения информации операторы платформ и поставщики услуг также должны взять на себя соответствующие обязанности, провести красные линии для контента, создаваемого ИИ, строго запретить распространение незаконного, нарушающего авторские права и мошеннического контента, а также добавить заметные предупреждающие знаки для предотвращения распространения ложной информации. . Кроме того, использование цифровых водяных знаков, временных меток, хэш-функций и других технических средств может не только повысить проверяемость достоверности информации, но и стать эффективным средством предотвращения распространения ложной информации. Как потребители контента, аудитория также должна сохранять бдительность, улучшать свою способность распознавать контент, созданный искусственным интеллектом, и избегать предвзятых убеждений.