Технология искусственного интеллекта быстро развивается, и технология глубокой подделки, как одно из ее применений, глубоко влияет на нашу жизнь. Эта технология может создавать очень реалистичные поддельные видео и изображения, что приносит много удобств, но также несет в себе серьезные риски, например, использование изображений знаменитостей для совершения мошенничества. В этой статье будут обсуждаться проблемы и меры противодействия, связанные с технологией глубокой подделки, с целью повышения осведомленности общественности о рисках и поддержания общественного порядка.
В последние годы искусственный интеллект проник во все аспекты жизни: от голосовых помощников до технологий автономного вождения. Однако широкое применение технологий искусственного интеллекта также несет в себе некоторые потенциальные риски, среди которых технология дипфейков привлекла внимание общества.
Технология Deepfake использует алгоритмы для создания высокореалистичного ложного контента. Обучаясь на большом объеме реальных данных, она генерирует видео или изображения, очень похожие на людей или сцены. Хотя эта технология демонстрирует мощь ИИ, она также порождает мошенничество. Например, недавно имели место случаи, когда люди притворялись, что используют образ и голос доктора Чжан Вэньхуна для продвижения прямых трансляций. В фейковом видео синтетический персонаж рекламировал определенный товар, в результате чего было продано более 1200 наименований. Этот инцидент вызвал сильное недовольство между доктором Чжан Вэньхуном и общественностью.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
Тан Цзяньшэн, заместитель генерального секретаря Шанхайской комиссии по защите прав потребителей, заявил, что такое поведение, заключающееся в выдаче себя за изображения знаменитостей с помощью технологии искусственного интеллекта, представляет собой серьезное нарушение прав потребителей. Подобные случаи включают в себя людей, использующих аватарку Лэй Цзюня для создания пародийных видеороликов во время Национального дня и выдающих себя за голос Энди Лау для привлечения трафика. Соответствующие компании и знаменитости призвали общественность быть более бдительными.
Эксперты отмечают, что современные технологии искусственного интеллекта позволяют легко клонировать лица и голоса других людей, а создаваемый контент чрезвычайно реалистичен. Однако этот тип технологии не лишен недостатков. Аномалии все же можно обнаружить, внимательно наблюдая за слиянием лица с фоном или соответствием голоса форме рта. Кроме того, с помощью такой технологии в настоящее время трудно обеспечить прямую трансляцию в реальном времени.
Юристы ясно дали понять, что несанкционированное использование изображения или голоса другого человека является незаконным. Чжу Вэй, доцент Китайского университета политических наук и права, подчеркнул, что согласно Гражданскому кодексу такое поведение нарушает права личности, согласно Закону о кибербезопасности, соответствующий контент является незаконной информацией, и издателю может даже грозить уголовная ответственность; .
Что касается потребителей, если они покупают товары потому, что товары приносят фальшивые знаменитости, созданные искусственным интеллектом, они могут потребовать от продавца «вернуть один товар и компенсировать три» в соответствии с «Законом о защите прав потребителей», а минимальная сумма компенсации составляет 500 юаней. В то же время платформы коротких видео должны также взять на себя нормативную ответственность, ужесточить проверку и наказание соответствующего контента и избегать широкого распространения незаконной информации.
Развитие технологии глубокой подделки напоминает общественности, что, наслаждаясь удобством ИИ, им также необходимо проявлять бдительность в отношении потенциальных рисков.
Столкнувшись с проблемой технологии глубокой подделки, нам нужно, чтобы правительство, предприятия и частные лица работали вместе, чтобы усилить законодательный надзор, улучшить возможности технической идентификации и совместно построить безопасную и надежную сетевую среду. Только таким образом можно будет лучше использовать технологию ИИ, избегать ее злонамеренного использования и поддерживать общественный порядок и общественные интересы.