Организация MCN использует программы искусственного интеллекта для создания тысяч фейковых новостей в день, вызывая вирусное распространение большого количества ложной информации в Интернете. Новая учетная запись платформы опирается на «создание» ИИ для обновления более десятка электронных книг; каждый день, но текст нелогичный и риторический. , изображения, аудио и видео, а также большое количество дрянной «информации, в которой трудно отличить правдивую от ложной «Мусор», вызывающей дискуссии о «загрязнении ИИ».
С прошлого года генеративный искусственный интеллект вызвал волну увлечения по всему миру, а его революционные приложения принесли пользу многим отраслям и пользователям Интернета. Однако у медали есть две стороны, и существуют также некоторые негативные проблемы, сопровождающие генеративный искусственный интеллект. «Загрязнение ИИ», вызванное «информационным мусором», становится все более заметным.
Отчет об исследовании, опубликованный в апреле этого года Центром исследований новых медиа Школы журналистики и коммуникаций Университета Цинхуа, показал, что количество слухов об экономическом и корпоративном искусственном интеллекте выросло на 99,91% за последний год. Американское следственное агентство News Guard заявило, что количество веб-сайтов, генерирующих ложные статьи, с мая 2023 года выросло более чем на 1000%, причем на 15 языках. Некоторые эксперты полагают, что объем «информационного мусора», создаваемого ИИ, огромен, его трудно идентифицировать, а его анализ обходится дорого.
Вред, причиняемый «загрязнением ИИ», очевиден. «Загрязнение ИИ» приведет к тому, что пользователи сети впадут в когнитивные галлюцинации. На определенной платформе обмена знаниями ИИ, который, кажется, «знает астрономию сверху и географию снизу», генерирует пустой и тупой контент. В отсутствие критического мышления «система знаний», быстро сотканная ИИ, может, с одной стороны, ухудшить способность людей к критическому мышлению, а с другой стороны, может также привести к тому, что люди впадут в когнитивные иллюзии, вызывая общественное когнитивное замешательство. Коллективное понимание реальности и научный консенсус в конечном итоге приводят людей к тому, что их «ведёт» ИИ. Особенно для молодого поколения, выросшего с Интернетом: как только их познание будет сформировано «информационным мусором», последствия будут катастрофическими.
«Загрязнение ИИ» будет иметь неприятные последствия для развития индустрии ИИ. Как мы все знаем, точность моделей ИИ во многом зависит от качества обучающих данных. Если ложный и спам-контент, сгенерированный ИИ, «перетекает» в Интернет и становится новыми данными для обучения моделей ИИ, эта модель цикла «мусор на входе — на выходе» может привести к резкому падению качества вывода ИИ, что не способствует к развитию всей индустрии искусственного интеллекта. Например, интернет-компания использовала поисковую оптимизацию, чтобы расставить приоритеты статей, созданных ИИ, в результатах поиска, что затруднило пользователям получение высококачественной информации и вызвало широкую критику со стороны пользователей.
Кроме того, «загрязнение ИИ» также затрагивает множество вопросов, таких как право, этика и даже социальная стабильность. Ложный контент, создаваемый ИИ, может нарушать права интеллектуальной собственности, нарушать правила авторского права, посягать на неприкосновенность частной жизни, утешать идентификационную информацию и создавать риски злоупотреблений, которые могут нарушить и манипулировать общественным мнением. Незаконные действия, производимые ИИ, также усилят социальное управление. трудный.
Видно, что крайне важно исправить «загрязнение Интернета искусственным интеллектом». Согласно 54-му «Статистическому отчету о развитии Интернета в Китае», опубликованному Китайским интернет-информационным центром, по состоянию на июнь этого года число пользователей Интернета в моей стране составило почти 1,1 миллиарда человек. Интернет создает новый дом для человеческого существования, а молодое поколение стало «аборигенами» Интернета. Можно сказать, что устранение «загрязнения ИИ» является необходимым действием для создания чистого киберпространства и обеспечения хорошей жизни для людей. каждый пользователь сети.
Во-первых, необходимо усилить управление источниками механизмов обучения и создания ИИ. Уточнить ответственность платформы ИИ за контроль исходных материалов и надзор за созданным контентом, улучшить правила создания контента ИИ, заставить контент, созданный ИИ, отмечать заметными метками, а также повысить прозрачность и объяснимость технологии ИИ.
Во-вторых, усилить проверку и контроль контента, создаваемого ИИ. Соответствующие ведомства и предприятия должны сосредоточить свой надзор на проверке и проверке контента, созданного с помощью ИИ. Они могут разработать соответствующие алгоритмы проверки, стандартизировать поток и распространение созданного контента в поле общественного мнения, а также оперативно обнаруживать и удалять низкокачественные или некачественные материалы. ложный контент.
В-третьих, улучшить способность пользователей идентифицировать контент, созданный ИИ. Пользователи сети должны рационально относиться к информации в Интернете, повышать осведомленность о предотвращении и возможности идентификации. Они могут использовать инструменты обратного поиска для проверки источника и информации об авторе контента, а также анализировать языковые и структурные характеристики контента, чтобы выявлять «фейковые» и «низший».
Киберпространство — это не «мусорная свалка», заваленная мусором. Борьба с «загрязнением ИИ» и создание чистого и безопасного сетевого дома требует совместного управления всеми ведомствами и участия всего общества.