Редактор Downcodes сообщает: Последнее исследование раскрывает удивительный секрет учетных записей-аватаров, созданных искусственным интеллектом на платформе X. Немецкая исследовательская группа проанализировала почти 15 миллионов учетных записей X и обнаружила, что лишь очень небольшое количество учетных записей (0,052%) использовали аватары, созданные ИИ. Эти учетные записи обладают уникальными характеристиками, такими как небольшое количество подписчиков и подписчиков, большинство учетных записей были созданы в 2023 году и даже создавались пакетно, что указывает на то, что это, скорее всего, фейковые учетные записи, используемые для распространения конкретной информации.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
Эти учетные записи имеют очевидные характеристики: у них меньше подписчиков и они подписаны на меньшее количество учетных записей, причем более половины из них были созданы в 2023 году, а некоторые учетные записи даже создавались партиями в течение нескольких часов. Йонас Рикер, ведущий автор исследования, отметил, что это ясно показывает, что эти учетные записи не являются реальными пользователями. После девяти месяцев наблюдения Платформа X закрыла более половины этих счетов.
В ходе ручного анализа контента 1000 аккаунтов, в которых использовались аватары с искусственным интеллектом, исследователи обнаружили, что темы контента этих аккаунтов были в основном сосредоточены на политике, особенно на вопросах, связанных с Трампом, вакцинами от COVID-19 и войной на Украине. Кроме того, часто возникают лотереи и финансовые темы, такие как криптовалюты. Исследователи предполагают, что эти учетные записи могли быть созданы специально для распространения дезинформации и политической пропаганды, поскольку учетные записи создавались в большом количестве и использовали одни и те же метаданные, что позволяет предположить, что они могут быть частью организованной сети.
Хотя в этом исследовании не изучалось распространение этих аккаунтов с использованием ИИ-аватаров, среднее количество их подписчиков и аккаунтов показывает, что их влияние ограничено. Это согласуется с исследованием OpenAI, которое показало, что аккаунты в социальных сетях, распространяющие политическую пропаганду, созданную ИИ, получили мало откликов, что сделало эти аккаунты менее эффективными. Исследовательская группа планирует расширить автоматизацию распознавания фальшивых аватаров ИИ в будущих анализах и включить обновленные модели, чтобы лучше понять влияние этой технологии на платформы социальных сетей.
Это исследование дает ценную информацию о нашем понимании применения аватаров, созданных ИИ, на платформах социальных сетей, а также напоминает нам, что следует с осторожностью относиться к использованию технологий ИИ для распространения вредоносной информации. В будущем более эффективная технология распознавания ИИ станет важным средством обеспечения безопасности сетевой среды. Редактор Downcodes продолжит уделять внимание актуальным разработкам и предоставлять вам больше технологической информации.