إذا كنت تعتقد أنّ الأخبار الزائفة مشكلة، فانتظر أثر التزييف العميق!

مقال مترجم عن “فينانشل تايمز” للكاتبة رولا خلف

مؤخرًا، عُرضت عليّ عشرات الصور الصغيرة لدونالد ترامب، بعضها حقيقيّ وبعضها الآخر وُلّد رقميًا. وجدت أنّه من المستحيل التمييز بينهم. عندما طُلب منّي اختيار ثلاثة منها أعتقد أنها مزيفة، استطعت تحديد واحدة فقط.

كان التمرين بمثابة مقدمة للتهديد الأمني ​​الذي يلوح في الأفق المتمثل في “التزييف العميق”، وهو التقليد المدعوم بالذكاء الاصطناعي للكلام والصور لخلق حقائق بديلة، مما يجعل الشخص يبدو وكأنه يقول أو يفعل أشياء لم يقلها أو يفعلها قطّ.

في أبسط أشكاله، يصنع التزييف العميق بإعطاء تعليمات للكمبيوتر وتغذيته بالصور والصوت لشخص ما، ليتعلّم تقليد صوت ذلك الشخص (وربما أكثر من ذلك بكثير). يوجد بالفعل تطبيق لذلك، اسمه “FakeApp” (وبرامج تعليميّة بالفيديو حول كيفية استخدامه)، وثمّة مجتمع رقميّ سفليّ يعمل على تركيب وجوه المشاهير على الممثلين في مقاطع الفيديو الإباحية.

لا تزال منتجات التزييف العميق اليوم غير كاملة ويمكن اكتشافها، لكن التكنولوجيا تتقدّم بسرعة. في غضون عامين أو ثلاثة أعوام، قد نشاهد الصور والخطب المتحرّكة دون أن يتمكّن أي شخص من معرفة ما إذا كانت حقيقية أم افتراءات.

في دراسة رائعة، تعلم الباحثون في جامعة واشنطن إنشاء مقاطع فيديو لباراك أوباما من صوته ومخزونه. تم تصميم شكل فم الرئيس الأمريكي السابق بصورة أساسيّة لخلق “أوباما الاصطناعيّ”. في جامعة ستانفورد، تلاعب الباحثون في دوران الرأس، ونظرات العين، والرَّمش، منتجين مقاطع فيديو مزيّفة بواسطة الكمبيوتر يصعب تمييزها عن الواقع.

يمكن للتكنولوجيا أن تفعل المعجزات في تحرير الأفلام وإنتاجها والواقع الافتراضي. في المستقبل غير البعيد، يمكن أن تتغير الدبلجة: سيظهر الممثلون المكسيكيون في مسلسل تلفزيوني كما لو كانوا يتحدثون الإنجليزية (أو الصينية أو الروسية) وسيبدو ذلك أكثر واقعيّة. في مجال الأعمال التجارية والشؤون العالمية، يمكن للتكنولوجيا كسر حاجز اللغة في مكالمات الفيديو الجماعيّة عن طريق ترجمة الكلام وتغيير حركات الوجه والفم في الوقت نفسه بحيث يبدو أنّ الجميع يتحدثون اللغة نفسها.

لكن فكّر أيضًا في الانتهاكات المحتملة من قبل أفراد أو جهات حكومية عازمة على نشر معلومات مضلّلة. يمكن أن يضع التزييف العميق الكلمات والتعبيرات على وجه السياسي وفمه، ليؤثّروا بذلك على الانتخابات. يمكن أن تحدث مقاطع الفيديو تهديدًا وتسبّب أزمة سياسية أو حادثًا أمنيًا. تقول ياسمين غرين، مديرة البحث والتطوير في Jigsaw، مركز أبحاث Alphabet: “إذا كانت السنوات القليلة الماضية كانت ملفتة، فإنّه سيتم نشر مقاطع الفيديو المزيّفة بصورة متزايدة لتعزيز الأجندات السياسية”. وتضيف: “لم تكن الأعمال السابقة معقّدة تقنيًا ولذلك فُضح زيفها بسهولة، لكن التكنولوجيا تتطوّر… أسرع من فهمنا للتهديد الذي قد تمثّله”.

ثمّة بالفعل دليل على المشكلة. في مايو من العام الماضي، تعرضت وكالة الأنباء القطرية وحساباتها على مواقع التواصل الاجتماعي للاختراق ونُسبت التصريحات إلى الأمير مما أدّى إلى إثارة خلاف دبلوماسي. استخدم جيران قطر التصريحات لتبرير مقاطعة اقتصاديّة لقطر. تقول غرين: “أثارت حادثة قطر الشهية لاستخدام المنتجات المزيفة لتمرير أجندات سياسيّة”. وتكمل: “تخيل لو كانت لديهم الإمكانيات للتزييف العميق!”

في الآونة الأخيرة، قبل الانتخابات المحلية في مولدوفا، تم نشر مقطع فيديو لمقطع إخباري من قناة الجزيرة على صفحة الشبكة على فيسبوك مع ترجمة باللّغة الرومانيّة. وجُعل الأمر وكأنه يتعلّق باقتراح مرشح لمنصب رئيس البلدية تأجير جزيرة لدولة الإمارات العربية المتحدة. كان ذلك افتراءً، لكن الفيديو انتشر على نطاق واسع.

الضرر الناجم عن الأخبار الكاذبة الحالية يتضاءل مقارنة بالضرر الذي قد يأتي من التزييف العميق. كبير التقنيين في مركز مسؤولية وسائل التواصل الاجتماعي في جامعة ميشيغان، قلق من أن تقنية التزييف العميق لن تقنع الناس فقط بأشياء غير حقيقية، بل ستقوّض ثقة الناس بما هو موجود. يقول: “هذا يؤثر على كل شيء في مجتمعنا، من سيادة القانون إلى كيفية عمل الصحافة”.

تدرك وكالات الاستخبارات وإدارات الدفاع جيدًا التقدم التقنيّ في مقاطع الفيديو التي تولّد حاسوبيّا (وقد تكون متعمقة في البحث نفسه). يبحث بعض الباحثين الرائدين في هذا المجال أيضًا عن حلول الكشف، وكذلك شركات التكنولوجيا والحكومات.

آمل أن يجدوا حلّا لهذه المشكلة أسرع بكثير من أدائهم في اكتشاف الأخبار المزيّفة والتخلّص منها.