جاري التحميل الآن

الزيف العميق .. خطر يقوده الذكاء الاصطناعي

الزيف العميق التزييف العميق

الزيف العميق .. خطر يقوده الذكاء الاصطناعي

زاهر هاشم

يشير مصطلح “الزيف العميق” أو “التزييف العميق” (Deep Fake) إلى مقاطع الفيديو التي تتم معالجتها بواسطة الذكاء الاصطناعي والتقنيات الحديثة لتقديم نتائج مزيفة.

أحد أبرز الأمثلة على الزيف العميق يتضمن معالجة الصور لإنتاج فيديو لمشاهير أو سياسيين أو غيرهم، يقولون أو يفعلون أشياء لم يقولوها أو يفعلوها في الواقع.

ومن أشهر مقاطع الزيف العميق مقطع فيديو انتشر في أبريل 2018 وتمت مشاهدته ملايين المرات، يظهر فيه الرئيس الأمريكي السابق باراك أوباما وهو يتحدث بعبارات نابية بحق الرئيس الأمريكي الحالي دونالد ترامب، ويهدف هذا الفيديو الذي تم إنتاجه بدقة كبيرة باستخدام تقنيات الذكاء الاصطناعي من قبل المخرج والممثل الأمريكي جوردان بيل، إلى التنبيه بمخاطر هذا النوع من التقنيات التي قد تصبح أدوات فاعلة في التأثير السياسي وحشد الرأي العام والتلاعب والتأثير على العملية السياسية والديمقراطية.

كما أثار مؤسس موقع فيسبوك مارك زوكربيرج الجدل في مقطع فيديو أشار فيه إلى أن الشبكة الاجتماعية الأولى في العالم تقوم بسرقة بيانات المستخدمين، بهدف التنبؤ بقراراتهم المستقبلية والتحكم بها، إلا أن الحقيقة هي أن هذا الفيديو قد تم تنفيذه من قبل وكالة إعلانية بتقنية عالية تستخدم الزيف العميق.

البداية والتقنيات 

تعود بداية ظهور الزيف العميق لأول مرة على شبكة الإنترنت إلى أواخر عام 2017 حيث انتشرت مقاطع فيديو إباحية يظهر فيها وجوه شخصيات سينمائية مشهورة بدلًا من الممثلين الحقيقيين، وأدى ذلك فيما بعد إلى انتشار خوارزميات وبرامج مفتوحة المصدر تسهّل استخدام هذه التقنية من قبل أي شخص.

وتعتمد أغلب طرق الزيف العميق على تقنية تسمى “شبكة الخصومة التوليدية” Generative Adversarial Networks وتعرف اختصارًا (GANs)، حيث تستخدم خوارزميتين متنافستين للذكاء الاصطناعي الأولى تسمى المُمَيِّز  أو المدقق (Discriminator) والأخرى تسمى المولِّد (Generator)، تعمل شبكة الخصومة التوليدية على إنشاء مجموعة من البيانات المفبركة من خلال المولِّد، ثم عرضها على المدقق بهدف تقوية قدراته على التفريق بين البيانات الحقيقية والمفبركة، بعد ذلك يتم تدريب المولِّد ذاته على تحسين إنتاج بيانات مفبركة من أجل خداع المدقق، وفي كل مرة يقوم المدقق بتحديد المحتوى على أنه ملفق، يتم تزويد المولِّد بمعلومات حول كيفية تحسين التزييف في المرة القادمة.

 تتكرر هذه العملية عدة مرات إلى أن يصبح من الصعب على أي مراقب بشري التفريق بين البيانات الحقيقية والبيانات المفبركة من طرف الشبكة، ونظرًا لأن المولِّد يتحسن في إنشاء مقاطع فيديو مزيفة، فإن أداة التمييز تتحسن في اكتشافها، وبالمقابل كلما تحسنت أداة التمييز في اكتشاف مقاطع الفيديو المزيفة، يتحسن أداء المولِّد في إنشائها.

مخاطر الزيف العميق

يصنّف الخبراء المحتوى المرئي والصوتي المزيف باعتباره الاستخدام الأكثر إثارة للقلق من بين استخدامات الذكاء الاصطناعي وفقًا لدراسة حديثة صادرة عن كلية لندن الجامعية.

وحددت الدراسة 20 طريقة يمكن من خلالها استخدام الذكاء الاصطناعي لتسهيل الجريمة خلال السنوات القادمة، وقال مؤلفو الدراسة أن المحتوى المرئي المزيف سيكون من الصعب اكتشافه وإيقافه، حيث يسعى لتحقيق مجموعة متنوعة من الأهداف، مثل تشويه سمعة شخصية عامة، أو سرقة الأموال عن طريق انتحال الشخصية.

وتتوقع مؤسسة أبحاث فورستر أن عمليات الاحتيال باستخدام الزيف العميق سوف تتجاوز قيمتها 250 مليون دولار أمريكي خلال عام 2020.

كما تتوقع شركة “فورس بوينت” الأمنية أن تسيطر هجمات الابتزاز عبر تقنيات الزيف العميق على عديد من مجريات العام الحالي، مع زيادة اعتماد المهاجمين على اتصال الجيل الخامس لما يوفره من سرعة كبيرة في أداء الهجمات الإلكترونية.

وبحسب تقرير نشرته شركة “ديب تراس” الهولندية، التي تعمل في مجال مكافحة الزيف العميق، فإن 7964 مقطع فيديو بالزيف العميق قد تم تداوله على شبكة الإنترنت في بداية 2019، وبعد تسعة أشهر فقط قفز هذا الرقم إلى 14678 مقطعًا، ولا شك أنه سيتزايد باستمرار.

ويضيف التقرير أن 96 % من مقاطع الفيديو المزيفة على الإنترنت في سبتمبر 2019 هي فيديوهات إباحية، ومن هذه الزاوية المظلمة بدأ استخدام تقنية الزيف العميق بالانتشار إلى المجال السياسي حيث تزداد احتمالية حدوث فوضى أكبر.

وبينما اكتسب الزيف العميق شهرته في البداية كأداة ترفيهية لإنشاء محتوى يخص مشاهير الفن، إلا أن هذه التقنية أصبحت تستخدم بالفعل كعنصر من عناصر التلاعب السياسي.

من الأمثلة على ذلك مقطع فيديو تم التلاعب به لرئيسة مجلس النواب الأمريكي “نانسي بيلوسي”، ظهرت فيه وكأنها ثَملة، وقد انتشر الفيديو بشكلٍ كبير، قبل أن يتضح فيما بعد أنه مزيف، لكن الملايين ظنوا أنه حقيقي وقاموا بمشاركته على صفحات التواصل الاجتماعي، من بينهم “رودي جولياني”، أحد السياسيين الأميركيين البارزين.

وإذا كانت الانتخابات الرئاسية الأمريكية عام 2016 قد أثارت جدلًا حول احتمال وجود تدخل أجنبي باستخدام التكنولوجيا الرقمية، والهجمات السيبرانية، فإن صعود الزيف العميق يشكل تحديًا كبيرًا مع اقتراب الانتخابات الرئاسية لهذا العام.

وفي تقرير حديث لخص معهد بروكنجز مجموعة المخاطر السياسية والاجتماعية التي يفرضها الزيف العميق وهي: تشويه الخطاب الديموقراطي، والتلاعب بالانتخابات، وتآكل الثقة بالمؤسسات، وإضعاف الصحافة، وتفاقم الانقسامات الاجتماعية، وتقويض السلامة العامة، وإلحاق الضرر بسمعة الشخصية البارزة.

والخطر الأكبر أن ظهور تقنية الزيف العميق سيجعل من الصعب على الجمهور التمييز بين ما هو حقيقي وما هو مزيف، وقد يستغل الفاعلون السياسيون حالة فقدان الثقة هذه في أعمال قد ينتج عنه عواقب وخيمة محتملة، تمثل خطرًا كبيرًا على الأمن القومي.

مواجهة الزيف العميق

وعلى غرار التحدي الذي أنتجه ظهور برامج تعديل الصور الثابتة مثل “فوتوشوب” خلال العقود الماضية، واستخدام هذه البرامج في إنتاج صور زائفة بجودة وإتقان، ثم تطوير برامج وخوارزميات لكشف هذا التزييف، فإن الأمر نفسه يتكرر الآن مع ظهور تقنيات الزيف العميق، وتطوير تقنيات قادرة على كشف تزييف الصور المتحركة.

أبسط هذه الطرق هي التدقيق، حيث يمكن عادة معرفة أن مقاطع الفيديو مزيفة اعتمادًا على بعض المؤشرات مثل تعابير الوجه أو حركة الشفاه غير الطبيعية، إلا أن هذه التقنية تتحسن بوتيرة مذهلة قد يصعب اكتشافها فيما بعد بالعين المجردة.

وبالنظر إلى أن تقنية الزيف العميق تعتمد على الذكاء الاصطناعي في المقام الأول، ينظر البعض إلى الذكاء الاصطناعي نفسه كحل لمواجهة آثار الزيف العميق الضارة، حيث قام الباحثون بتطوير وبناء أنظمة تقوم بتقييم الإضاءة والظلال وحركات الوجه وغيرها من الميزات من أجل تمميز الصور الملفقة.

ومع ذلك فمن غير المرشح أن توقف هذه التقنيات انتشار الزيف العميق على المدى الطويل.

يقول البروفيسور “هاو – لي” من جامعة جنوب كاليفورنيا لإذاعة “بي بي سي”: لقد وصلنا بالفعل إلى النقطة التي لا يمكن التمييز فيها بين التزييف العميق والشيء الحقيقي.

أما جورجيو باتريني المدير التنفيذي لشركة “ديب تريس” فيرى أنه على الرغم من انتشار أدوات الزيف العميق مجانًا من خلال المصادر المفتوحة على الإنترنت، إلا أنها لا تزال بحاجة إلى خبرة لاستخدامها.

إن الزيف العميق الذي لا يمكن تمييزه سيصبح شائعًا في نهاية المطاف ويمكن استخدامه كسلاح سياسي، وقد نفقد الثقة بكل مقاطع الفيديو المنشورة على الإنترنت أو التي تظهر على شاشات التلفزيون، لكن من المؤكد أننا مع تطور التقنيات، سنظل قادرين على بناء أدوات أكثر تعقيدًا لاكتشافها، وكما تتطور برامج مكافحة الفيروسات بشكل مستمر لمواجهة المزيد من المخاطر والثغرات الأمنية المتنامية، ستتطور أدوات مكافحة الزيف العميق لتواجه أخطر تهديد لجرائم الذكاء الاصطناعي.

منشور في العدد 237 سبتمبر 2020 – مجلة لغة العصر – مؤسسة الأهرام المصرية

الزيف العميق، التزييف العميق، الذكاء الاصطناعي

Share this content:

إرسال التعليق