С быстрым развитием технологий искусственного интеллекта технология клонирования голоса становится все более зрелой. Однако нельзя игнорировать риски, которые она несет. В последние годы произошло много случаев мошенничества с использованием технологии клонирования голоса, жертвами которого стали многие известные люди, что вызвало обеспокоенность общественности по поводу этой технологии и призывы к более строгому юридическому надзору. Редактор Downcodes подробно объяснит проблемы и меры противодействия, связанные с технологией клонирования звука.
С постоянным развитием технологий искусственного интеллекта технология клонирования голоса постепенно стала достоянием общественности, но также выявились и ее потенциальные риски. В последнее время голоса многих известных людей были злонамеренно клонированы преступниками и использованы в качестве инструментов для мошенничества. Многие знаменитости, в том числе известный ведущий документальных фильмов о природе Дэвид Аттенборо, выразили обеспокоенность по этому поводу и призвали к усилению правовой защиты.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
Недавно Дэвид Аттенборо почувствовал себя «глубоко встревоженным», обнаружив, что его голос использовался для распространения политических новостей. Он сказал, что посвятил свою жизнь распространению правды, но теперь обнаружил, что его личность украли другие. Эта ситуация разозлила его и разочаровала. Кроме того, преступники клонировали голоса таких знаменитостей, как Дженнифер Энистон, Опра Уинфри и Кайли Дженнер, что указывает на универсальность этого явления.
Согласно последнему расследованию, количество случаев мошенничества с клонированием голоса с помощью искусственного интеллекта в Великобритании за последний год выросло на 30%. Опрос показывает, что около 28% людей хотя бы раз за последний год сталкивались с мошенничеством с клонированием голоса с помощью искусственного интеллекта. Эти мошеннические действия часто сопровождаются размытыми телефонными звонками и фальшивыми голосами, из-за чего жертвам трудно отличить их. Эксперты рекомендуют при получении подозрительного звонка немедленно повесить трубку и позвонить на доверенный номер телефона для подтверждения.
Поскольку технология клонирования голоса продолжает совершенствоваться, эксперты начинают концентрироваться на юридических проблемах, связанных с этой технологией. Доктор Доминик Лис сказал, что действующие законы о конфиденциальности и авторском праве еще не адаптированы к развитию этой новой технологии, в результате чего многие жертвы, такие как Аттенборо, практически бессильны. Он консультирует Комитет по культуре, СМИ и спорту парламента Великобритании по вопросам этического использования технологий искусственного интеллекта в кино- и телепроизводстве.
Мало того, Ли Си также отметил, что, хотя ИИ и добился значительного прогресса в синтезе звука, он все еще не может полностью понять эмоциональные изменения, что влияет на реалистичность звука. Кроме того, индустрия дубляжа также быстро реагирует на эти изменения, и некоторые компании начали клонировать голоса некоторых артистов, чтобы удовлетворить рыночный спрос.
В целом, развитие технологии клонирования голоса вызвало широкую обеспокоенность, особенно с точки зрения защиты личной жизни и репутации. Эксперты призывают правительство как можно скорее принять меры для решения новых проблем, связанных с технологией искусственного интеллекта, и не позволить этой технологии стать инструментом преступников.
Технология клонирования голоса — палка о двух концах, и ее развитие требует баланса между технологическим прогрессом и этическими нормами. В будущем укрепление законодательства, повышение осведомленности общественности о мерах профилактики и содействие безопасному развитию самой технологии станут ключом к борьбе с рисками, связанными с технологией клонирования голоса.