"كلينتون تختطف أطفال وترامب يعشق الرياضات المائية".. قريباً لن تصدِّق كل ما تراه عيناك وإليك السبب

تم النشر: تم التحديث:

في عصر "الفوتوشوب"، و"فلاتر" تنقية الصور، وشبكات التواصل الاجتماعي، اعتاد العديد من المُستخدمين رؤية صورٍ خضعت للتلاعب، يصبح الأشخاص أنحف وتصبح وجوههم ملساء بدرجةٍ أكبر، أما في حالة تطبيق "سناب شات"، فهم يتحوَّلون إلى جراءٍ.

لكن جيلاً جديداً من أدوات التلاعب قد ظهر في المقاطع الصوتية والفيديو، التي باتت متاحةً بفضل تقدم تقنية الذكاء الاصطناعي وتصميمات الغرافيك على الحاسب الآلي، ما يسمح بإنتاج لقطاتٍ تبدو واقعيةً لشخصياتٍ عامة وهم يقولون في الواقع أي شيء يقرره منتج اللقطات، حسبما ورد في تقرير لصحيفة الغارديان البريطانية.

إذ قد نرى ترامب وهو يعلن ميوله تجاه الرياضات المائية، وهيلاري كلينتون وهي تصف الأطفال المخطوفين الذين تحتجزهم في قبو الخمور لديها، والممثل الأميركي توم كروز وهو يعترف بما كنَّا نتشكَّك فيه طوال الوقت، وهو أنه أحد معجبي مسلسل الرسوم المتحركة "Brony".


مستقبل الأخبار الزائفة


هذا هو مستقبل الأخبار الزائفة. كان يُقال لنا طوال الوقت ألا نصدق كل ما نقرأه، لكننا سنضطر قريباً إلى التشكيك في كل ما نراه ونسمعه أيضاً.

وحالياً، تعمل العديد من الفرق البحثية على التقاط وتركيب عناصر صوتية ومرئية مختلفة لسلوك الإنسان.

ويستطيع برنامج مُطوَّر في جامعة ستانفورد التلاعب في مقاطع الفيديو الخاصة بالشخصيات العامة، ما يسمح لشخصٍ آخر بتلاوة كلمات على لسانهم في نفس توقيت حركة شفاههم.

ويلتقط برنامج "فيس تو فيس - Face 2 Face" تعبيرات وجه الشخص الثاني بينما يتحدث عبر الكاميرا، ثم يتلاعب به ويُركِّب هذه الحركات مباشرةً على وجه الشخص في مقطع الفيديو الأصلي.

وشرح أعضاء الفريق البحثي تقنيتهم الحديثة عبر التلاعب في مقاطع فيديو للرئيس الأميركي الأسبق جورج بوش الابن، والرئيس الروسي فلاديمير بوتين، والرئيس الأميركي الحالي دونالد ترامب، ليحركوهم كالعرائس المتحركة.

وفي حد ذاته، يعد برنامج "فيس تو فيس" مجرد أداةٍ للهو وإنتاج مقاطع فيديو ساخرة، للترفيه عن جمهور البرامج الحوارية الليلية.

لكن مع إضافة خاصية تركيب الصوت، باتت مقاطع الفيديو أكثر قدرةً على الإقناع، فلم تعد أشكال الدمى الرقمية تشبه السياسيين فقط، بل باتت أصواتها تشبه أصواتهم أيضاً.

وعمل فريقٌ بحثي من جامعة ألاباما، الواقعة في مدينة برمنغهام الأميركية، على تطوير تقنية تقليد الأصوات. وباستخدام مقطعٍ صوتي للضحية تتراوح مدته ما بين 3 و5 دقائق -سواء كان مُسجَّلاً على الهواء مباشرةً أو مأخوذاً من مقاطع الفيديو على موقع يوتيوب أو برامج الراديو- يستطيع المهاجم إنتاج صوتٍ مُركَّبٍ قادر على خداع البشر وأنظمة الأمن البيومترية الصوتية المستخدمة في بعض البنوك والهواتف الذكية.

ويستطيع المهاجم التحدث عبر الميكروفون، ليُحوِّل البرنامج بعدها صوته إلى كلماتٍ تبدو وكأنها خرجت من فم الضحية، سواء كان هذا عبر الهاتف أو في برنامج على الراديو.

وطوَّرت شركة "Lyrebird" الكندية الناشئة تقنياتٍ مشابهة، وتقول إنه يمكن استخدام هذه التقنيات لتحويل النصوص المكتوبة مباشرةً إلى كتبٍ صوتيةٍ، تُقرأ بواسطة أصوات مشهورة أو شخصيات ألعاب الفيديو.

وعلى الرغم من أن نواياهم قد تكون حسنة، يمكن دمج تقنية التلاعب في الصوت مع تقنية التلاعب في شكل الوجه لخلق بياناتٍ مُزيفة على لسان رموزٍ عامة.


تركيب أوباما


ولا تحتاج إلا أن ترى مشروع "تركيب أوباما" التابع لجامعة واشنطن، والذين لجأوا خلاله إلى أخذ الصوت من خطابات الرئيس الأميركي السابق واستخدموه لتحريك وجهه في مقطع فيديو مختلف تماماً، بدقةٍ بالغة (بفضل تطوير أداء تقنية رقمية تسمى "الشبكة العصبية المتكررة"، عبر تزويدها بساعاتٍ من لقطات الفيديو الخاصة بأوباما)، لتُدرِك إلى أي مدى يمكن أن تكون برامج التزييف هذه خبيثة.

ويرى نيتش ساكسينا، الأستاذ المساعد ومدير الأبحاث في قسم علوم الحاسب الآلي بجامعة ألاباما، أن هناك تداعياتٍ أخرى لهذه التطبيقات تتجاوز خطر الأخبار المزيفة، إذ يقول: "يمكنك ترك رسالةٍ صوتية مزيفة، تدعي خلالها أنك والدة أحد الأشخاص، أو يمكنك التشهير بأي شخصٍ عن طريق نشر نماذج لمقاطع صوتية له على الإنترنت".

ولم تصل تقنيات التلاعب بعد إلى حد الإتقان. فقد تبدو تعبيرات الوجه في مقاطع الفيديو مُشَوَّهَة بعض الشيء أو غير طبيعية وقد تبدو الأصوات آلية إلى حد ما.

لكن بمرور الوقت، ستصبح هذه التقنيات قادرةً على إعادة خلق صوت أو شكل أي شخصٍ بدقة بالغة، إلى الحد الذي قد يُصعب على البشر للغاية مهمة اكتشاف عمليات الاحتيال.


كيف يمكن اكتشاف هذا التزييف؟


ونظراً إلى تدهور الثقة في وسائل الإعلام والانتشار الكثيف للأخبار الكاذبة على شبكات التواصل الاجتماعي، ستزداد أهمية تحقق المؤسسات الإعلامية من صحة المحتوى الذي يبدو فيه شكل وصوت الأفراد كالأشخاص الحقيقيين.

ومن بين المؤشرات المُستخدَمَة للتحقق من صحة مقاطع الفيديو، المكان الذي أُنتج فيه الفيديو أو الصوت، ومن كان حاضراً أيضاً في نفس الحدث، وإذا ما كانت الظروف الجوية تتوافق مع المقاطع المسجلة في ذلك اليوم.

وقالت ماندي جينكينز، من شركة أخبار شبكات التواصل الاجتماعي "Storyful"، والمتخصصة في التحقق من صحة المحتوى الإخباري على هذه الشبكات، إنه ينبغي على الأشخاص النظر إلى عناصرٍ مثل الإضاءة والظلال في مقطع الفيديو، وما إذا كانت جميع العناصر الموجودة في إطار اللقطة حجمها صحيح، وإذا ما كان الصوت يتزامن بدقةٍ مع الصورة المتحركة.

وقد لا ينجح المحتوى المُزيَّف في اجتياز الفحص الدقيق في غرفة الأخبار. لكن إذا نُشر كمقطع فيديو ذي جودةٍ منخفضة على شبكات التواصل الاجتماعي، يمكن أن ينتشر بسرعةٍ وكثافة، ويتسبب في اندلاع كوارث دبلوماسية، وسياسية، وتدهورٍ في العلاقات العامة. تخيَّل، على سبيل المثال، مقطع فيديو لترامب وهو يُعلن الحرب على كوريا الشمالية.

وقال سكسينا: "إذا كان هناك شخصٌ يبدو شبيهاً لترامب، ويتحدث مثل ترامب، فسيعتقد الناس أنه ترامب".

وأضافت ماندي: "نرى بالفعل حالياً كيف أن الناس لا يحتاجون مقطعاً صوتياً أو فيديو مُزيَّف حتى يُصدِّقوا ما ليس حقيقياً. لكن هذه التقنيات ستزيد من الأمر سوءاً".