Быстрое развитие технологии Deepfake привело к серьезным угрозам сетевой безопасности, а ложная информация процветает. Согласно статистике, мошенничество, связанное с Deepfake, быстро выросло и стало проблемой, которую нельзя игнорировать. Чтобы справиться с этой проблемой, технологические компании одно за другим искали решения. Среди них большое внимание привлек инструмент Video Seal, выпущенный компанией Meta. Инструмент направлен на борьбу с дипфейками путем добавления незаметных водяных знаков к видео, созданным искусственным интеллектом, и предоставляет свою технологию в открытый доступ для содействия более широкому сотрудничеству и развитию.
Сегодня дипфейки широко распространены. По мере того, как генеративный искусственный интеллект набирает популярность, количество ложного контента в сети резко возросло. Согласно статистике платформы проверки личности Sumsub, количество глобальных Deepfakes увеличится в четыре раза с 2023 по 2024 год. В 2024 году на Deepfake будет приходиться 7% всех случаев мошенничества, начиная от выдачи себя за другое лицо и кражи учетных записей и заканчивая сложными атаками социальной инженерии, причем все они связаны с Deepfake.
Чтобы эффективно бороться с дипфейками, компания Meta недавно выпустила инструмент, который может добавлять незаметные водяные знаки в видеоклипы, созданные искусственным интеллектом. Инструмент под названием Meta Video Seal был объявлен в четверг как открытый исходный код и предназначен для интеграции в существующее программное обеспечение. Этот инструмент объединяет другие инструменты Meta для создания водяных знаков Watermark Anything (перевыпущенные сегодня под разрешительной лицензией) и Audio Seal, образуя комплексное решение для создания водяных знаков.
«Мы разработали Video Seal, чтобы обеспечить более эффективное решение для нанесения водяных знаков на видео, в частности, для обнаружения видео, созданных искусственным интеллектом, и защиты оригинальности», — рассказал TechCrunch ученый-исследователь Meta AI Пьер Фернандес.
Video Seal — не первая технология такого рода. SynthID от DeepMind может добавлять водяные знаки к видео, а у Microsoft также есть собственный метод нанесения водяных знаков на видео.
Но Фернандес считает, что многие существующие методы не оправдывают ожиданий.
«Хотя существуют и другие инструменты для создания водяных знаков, они недостаточно надежны для сжатия видео (что очень распространено, когда контент распространяется через социальные платформы); не работают достаточно эффективно для крупномасштабных приложений; не являются достаточно открытыми или повторяемыми; или являются производными от водяных знаков изображений, а водяные знаки изображений — не лучший вариант для видео», — сказал Фернандес.
Помимо водяных знаков, Video Seal может добавлять к видео скрытые сообщения, чтобы позже раскрыть источник видео. Meta утверждает, что Video Seal может противостоять обычным операциям редактирования, таким как размытие и обрезка, а также обычным алгоритмам сжатия.
Фернандес признает, что Video Seal имеет определенные ограничения, в первую очередь компромисс между тем, насколько заметен водяной знак, и его общей устойчивостью к манипуляциям. Он добавил, что сильное сжатие и интенсивное редактирование могут изменить водяной знак или сделать его невозвратимым.
Конечно, более серьезная проблема Video Seal заключается в том, что у разработчиков и отрасли нет особых причин для его принятия, особенно у тех, кто уже использует собственные решения. Чтобы решить эту проблему, Meta запускает общедоступный рейтинговый список Meta Omni Seal Bench, специально разработанный для сравнения эффективности различных методов нанесения водяных знаков. Кроме того, Meta организует семинар по водяным знакам на ICLR (Международной конференции по изучению представлений) в этом году. ICLR — важная конференция по искусственному интеллекту.
«Мы надеемся, что все больше и больше исследователей и разработчиков ИИ будут интегрировать ту или иную форму водяных знаков в свою работу», — сказал Фернандес. «Мы надеемся работать с промышленностью и научными кругами, чтобы быстрее продвигать прогресс в этой области.
Этот шаг Meta, несомненно, дает новые идеи для борьбы с распространением Deepfake. Открытый исходный код и открытое сотрудничество могут стать эффективным способом решения этой сложной проблемы. Однако будущее Video Seal по-прежнему зависит от того, сможет ли она быть широко принята и применена в отрасли, а также от ее способности бороться с Deepfakes.
В целом, инструмент Video Seal от Meta представляет собой новую попытку борьбы с Deepfake, но его успех еще предстоит увидеть. В будущем для эффективного решения проблемы Deepfake потребуются новые технологические инновации и отраслевое сотрудничество. Открытый исходный код и дух сотрудничества являются ключевыми факторами, но это требует времени и постоянных усилий.