لقد أدى التطور السريع لتقنية Deepfake إلى ظهور تهديدات خطيرة لأمن الشبكات، وانتشرت المعلومات الكاذبة. وفقًا للإحصاءات، فقد نما الاحتيال المرتبط بـ Deepfake بسرعة وأصبح مشكلة لا يمكن تجاهلها. ومن أجل التعامل مع هذا التحدي، بحثت شركات التكنولوجيا عن حلول واحدة تلو الأخرى، ومن بينها أداة Video Seal التي أطلقتها شركة Meta والتي جذبت الكثير من الاهتمام. تهدف الأداة إلى مكافحة التزييف العميق عن طريق إضافة علامات مائية غير محسوسة إلى مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، كما أنها مفتوحة المصدر لتقنيتها لتعزيز التعاون والتطوير على نطاق أوسع.
واليوم، أصبحت التزييفات العميقة منتشرة على نطاق واسع. مع اكتساب الذكاء الاصطناعي التوليدي شعبية كبيرة، انتشر المحتوى الزائف على الويب. وفقًا لإحصائيات منصة التحقق من الهوية Sumsub، سيزداد عدد Deepfakes العالمي أربعة أضعاف من عام 2023 إلى عام 2024. في عام 2024، سيشكل Deepfake 7% من جميع عمليات الاحتيال، بدءًا من انتحال الهوية وسرقة الحسابات إلى هجمات الهندسة الاجتماعية المعقدة، وكلها تنطوي على Deepfake.
من أجل مكافحة Deepfakes بشكل فعال، أصدرت Meta مؤخرًا أداة يمكنها إضافة علامات مائية غير محسوسة إلى مقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. تم الإعلان عن الأداة، التي تسمى Meta Video Seal، كمصدر مفتوح يوم الخميس، وهي مصممة ليتم دمجها في البرامج الحالية. تنضم هذه الأداة إلى أدوات العلامات المائية الأخرى الخاصة بـ Meta، Watermark Anything (التي أعيد إصدارها اليوم بموجب ترخيص متساهل) وAudio Seal لتشكيل حل كامل للعلامة المائية.
وقال عالم أبحاث Meta AI، بيير فرنانديز، لـ TechCrunch: "لقد قمنا بتطوير Video Seal لتوفير حل أكثر فعالية لوضع العلامات المائية على الفيديو، خاصة في اكتشاف مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي وحماية الأصالة".
Video Seal ليست التكنولوجيا الأولى من نوعها. يمكن لـ SynthID الخاص بـ DeepMind إضافة علامات مائية إلى مقاطع الفيديو، ولدى Microsoft أيضًا طريقة خاصة بها لوضع العلامات المائية على الفيديو.
لكن فرنانديز يعتقد أن العديد من الأساليب الحالية غير كافية.
"على الرغم من وجود أدوات أخرى لوضع العلامات المائية، إلا أنها ليست قوية بما يكفي لضغط الفيديو (وهو أمر شائع جدًا عند مشاركة المحتوى عبر المنصات الاجتماعية)؛ ولا تعمل بكفاءة كافية للتطبيق على نطاق واسع؛ أو ليست مفتوحة أو قابلة للتكرار بدرجة كافية؛ أو مشتقة وقال فرنانديز: "من العلامات المائية للصور، والعلامات المائية للصور ليست الخيار الأفضل للفيديو".
بالإضافة إلى العلامات المائية، يمكن لـ Video Seal إضافة رسائل مخفية إلى مقاطع الفيديو للكشف لاحقًا عن مصدر الفيديو. تدعي Meta أن Video Seal يمكنه مقاومة عمليات التحرير الشائعة مثل التمويه والاقتصاص، بالإضافة إلى خوارزميات الضغط الشائعة.
يعترف فرنانديز بأن Video Seal له حدود معينة، في المقام الأول المفاضلة بين مدى إدراك العلامة المائية ومقاومتها الشاملة للتلاعب. وأضاف أن الضغط الشديد والتحرير المكثف يمكن أن يغير العلامة المائية أو يجعلها غير قابلة للاسترداد.
وبطبيعة الحال، فإن المشكلة الأكبر بالنسبة لـ Video Seal هي أنه لا يوجد سبب كبير يدفع المطورين والصناعة إلى اعتماده، خاصة أولئك الذين يستخدمون بالفعل حلولًا خاصة. لحل هذه المشكلة، تطلق Meta قائمة تصنيف عامة، Meta Omni Seal Bench، المصممة خصيصًا لمقارنة أداء طرق العلامات المائية المختلفة. بالإضافة إلى ذلك، ستقوم Meta بتنظيم ورشة عمل حول العلامات المائية في ICLR (المؤتمر الدولي حول تمثيلات التعلم) لهذا العام. ICLR هو مؤتمر مهم لمنظمة العفو الدولية.
وقال فرنانديز: "نأمل أن يقوم المزيد والمزيد من الباحثين والمطورين في مجال الذكاء الاصطناعي بدمج شكل من أشكال العلامات المائية في عملهم. ونأمل أن نعمل مع الصناعة والأوساط الأكاديمية لتعزيز التقدم في هذا المجال بسرعة أكبر."
ولا شك أن هذه الخطوة التي اتخذتها شركة Meta توفر أفكارًا جديدة لمكافحة انتشار Deepfake. قد يكون المصدر المفتوح والتعاون المفتوح وسيلة فعالة لحل هذه المشكلة الشائكة. ومع ذلك، فإن مستقبل Video Seal لا يزال يعتمد على ما إذا كان يمكن قبوله وتطبيقه على نطاق واسع من قبل الصناعة، وقدرته على محاربة التزييف العميق.
بشكل عام، توفر أداة Video Seal من Meta محاولة جديدة لمكافحة Deepfake، ولكن نجاحها لا يزال يتعين رؤيته. في المستقبل، ستكون هناك حاجة إلى المزيد من الابتكار التكنولوجي والتعاون الصناعي لحل مشكلة Deepfake بشكل فعال. يعد المصدر المفتوح وروح التعاون أمرًا أساسيًا، ولكنه يتطلب وقتًا وجهدًا مستمرًا.