بعد الطفرة التي شهدتها أدوات الذكاء الاصطناعي والمجالات التي أصبحت تتدخّل فيها بعد تطوّر هذه التقنيات، والتهديدات التي تشكّلها وجعلت من إنتاج فيديوهات التزييف العميق أمرا سهلا وميسورا، بات اكتشاف هذا التزييف بشكل سريع أمرا أكثر أهمية وإلحاحا.
ويبدو أنّ شركة “إنتل” للتكنولوجيا تعمل على ذلك وتعتقد أنّ لديها الحلّ، وترى أنّ الأمر برمّته يتعلّق بالدماء التي تسري في وجهك، فما الذي يعنيه ذلك؟
أطلقت الشركة على النظام الذي يكشف التزييف العميق اسم “FakeCatcher”. وتقول عالمة الأبحاث في مختبرات “إنتل” إيلك ديمير إنّ التقنية المسماة فوتوبليثيسموغرافي Photoplethysmography (PPG)، والتي تكتشف التغيّرات في تدفّق الدم في الجسم، مركزية في هذا النظام. وتشرح ذلك قائلة إنّ “الوجوه التي تنتَج عبر استخدام تقنية التزييف العميق لا تعطي هذه الإشارات”، كما يقوم النظام أيضا بتحليل حركة العين للتأكّد من أنّها حقيقية.
وتضيف العالمة: “عادة عندما ينظر البشر إلى نقطة ما، عندما أنظر إليك على سبيل المثال، يبدو الأمر كما لو أنّني أطلق أشعّة من عيني نحوك.. لكن بالنسبة إلى تقنية التزييف العميق تبدو العيون محدّقة بطريقة فارغة وسخيفة، أي تكون نظرتها زائغة ويعوزها التركيز”.
ومن خلال النظر في هاتين السّمتين، تعتقد “إنتل” أنّها تستطيع إيجاد الفرق بين الفيديو الحقيقي والمزيّف في غضون ثوان قليلة.
وتزعم الشركة أنّ نظام كشف التزييف “FakeCatcher” دقيق بنسبة 96٪.
وحاولت “بي بي سي” تجربة التقنية، واستخدمت عشرات مقاطع الفيديو للرئيس الأمريكي السابق دونالد ترامب والرئيس جو بايدن. وكان بعض تلك المقاطع حقيقيا، وبعضها الآخر كان منتجَا باستخدام تقنية التزييف العميق، من قبل معهد ماساشوستس للتكنولوجيا في الولايات المتّحدة.
وأكّدت الشبكة “أنّه في ما يتعلّق بالتعرّف على مقاطع الفيديو المنطوية على التزييف العميق، بدا أنّ النظام يعمل بشكل فعّال جدا”.
ولكن على الرغم من نجاح البرنامج لدرجة كبيرة في حالة الفيديوهات المزيّفة، إلاّ أنّه عندما تمّت تجربة فحص مقاطع فيديو حقيقية وأصلية، بدأ النظام بمواجهة المشاكل والصعوبات، وفي عدّة مرّات خلص النظام إلى أنّ الفيديو كان مزيّفا، في حين أنّه كان حقيقيّا، حسب تقرير “بي بي سي”.
ومردّ ذلك بصورة أو بأخرى، إلى أنّه كلّما كان مقطع الفيديو أقلّ وضوحا (أي يمكن رؤية الوحدات المتناهية في الصغر المكونة للصورة بوضوح)، يصعب الكشف عن تغيّرات تدفّق الدم.
كما وُجِد أنّ نظام “FakeCatcher” غير قادر على تحليل الصوت، لذلك صُنّفت بعض مقاطع الفيديو التي بدت حقيقية إلى حدّ ما من خلال الاستماع إلى الصوت، على أنّها مزيّفة.
والمثير للقلق هو أنّه إذا ما صنّف البرنامج مقطع فيديو ما على أنّه مزيّف، فقد يتسبّب في مشاكل حقيقية عندما يكون المقطع في واقع الأمر أصليا.
وتزعم شركة “إنتل” أنّ برنامج “FakeCatcher” قد خضع لاختبارات صارمة، من ضمنها اختبار “موسّع” -حيث جمعت الشركة 140 مقطع فيديو مزيّفا- إلى جانب العدد نفسه من مقاطع الفيديو الأصلية.
وتقول الشركة إنّه في هذا الاختبار، حقّق النظام نسبة نجاح بلغت 91٪.
وتختتم شبكة “بي بي سي” تقريرها بالقول إنّه “من المثير للدهشة مدى صعوبة التمييز بين مقطع فيديو مزيّف وآخر حقيقي، وهذه التكنولوجيا لديها بالتأكيد إمكانيات واعدة في هذا المجال”، “ولكن من خلال اختباراتنا المحدودة، يبدو حتى الآن على الأقل، أنّ الطريق أمامها ما يزال طويلا”.