С появлением генеративного искусственного интеллекта распространение ложной информации стало серьезной проблемой. Быстрое развитие технологии глубокой подделки привело к тому, что сетевая безопасность столкнулась с огромными проблемами. Для борьбы с этой угрозой Meta запустила новый инструмент под названием Meta Video Seal, целью которого является борьба с дипфейковыми видео и защита оригинальности контента с помощью технологии незаметных водяных знаков. Этот инструмент был выпущен с открытым исходным кодом и объединен с ранее выпущенным инструментом Meta для создания водяных знаков, чтобы сформировать более комплексное решение для защиты от дипфейков.
По мере коммерциализации генеративного искусственного интеллекта количество ложного контента в Интернете резко возросло. По данным платформы проверки личности Sumsub, количество глобальных дипфейков вырастет в четыре раза с 2023 по 2024 год. В 2024 году на дипфейки будет приходиться 7% всех случаев мошенничества, включая самые разные виды мошенничества: от выдачи себя за другое лицо и захвата учетных записей до сложных кампаний социальной инженерии.
Для борьбы с этой проблемой компания Meta выпустила новый инструмент Meta Video Seal, предназначенный для борьбы с дипфейками путем добавления незаметных водяных знаков к видео, сгенерированным AI. Инструмент, выпущенный в четверг с открытым исходным кодом, предназначен для легкой интеграции в существующее программное обеспечение и дополняет другие ранее выпущенные инструменты Meta для создания водяных знаков — Watermark Anything и Audio Seal.
«Мы разработали Video Seal, чтобы обеспечить более эффективное решение для нанесения водяных знаков на видео, в частности, для обнаружения видео, созданных искусственным интеллектом, и защиты оригинальности», — сказал в интервью ученый-исследователь искусственного интеллекта Meta Пьер Фернандес.
Хотя Video Seal — не первая предложенная технология нанесения водяных знаков на видео, на рынке также используются методы DeepMind SynthID и Microsoft, но Фернандес отметил, что существующие инструменты нанесения водяных знаков обычно имеют некоторые недостатки. Он сказал: «Хотя существуют и другие инструменты для создания водяных знаков, они плохо работают после сжатия видео, что очень распространено при распространении контента на социальных платформах; некоторые методы также работают менее эффективно и их нельзя открыть или воспроизвести; кроме того, многие методы получено из водяных знаков изображения, но водяные знаки изображения не подходят для видео».
В дополнение к функции водяных знаков Video Seal также может вставлять в видео скрытую информацию, которую позже можно будет раскрыть, чтобы отследить источник видео. Meta утверждает, что Video Seal может эффективно противостоять распространенным методам редактирования, таким как размытие и обрезка, а также широко используемым алгоритмам сжатия.
Однако Фернандес также признал, что Video Seal имеет определенные ограничения, особенно компромисс между различимостью водяного знака и его устойчивостью к несанкционированному вмешательству. Он отмечает, что чрезмерное сжатие и интенсивное редактирование могут уничтожить водяные знаки или сделать их невосстановимыми.
Более серьезной проблемой для Meta является отсутствие стимулов для разработчиков и игроков отрасли использовать Video Seal, особенно для тех, кто уже использует другие проприетарные решения. С этой целью Meta запустила публичный рейтинг под названием Meta Omni Seal Bench для сравнения эффективности различных технологий нанесения водяных знаков и проведет семинар по технологии нанесения водяных знаков на крупной конференции по искусственному интеллекту ICLR в этом году.
«Мы надеемся, что все больше и больше исследователей и разработчиков ИИ смогут включать ту или иную технологию нанесения водяных знаков в свою работу, и мы надеемся работать с промышленностью и научными кругами, чтобы быстрее продвигать эту область», — сказал Фернандес.
Выпуск Meta Video Seal с открытым исходным кодом предоставляет новое оружие для борьбы с глубокой подделкой, но сможет ли оно эффективно сдерживать распространение ложной информации, все еще требует проверки временем и совместных усилий отрасли. Постоянное развитие и широкое применение технологий станут ключом к решению этой проблемы.