متابعة – مريم أبو شاهين
مع تزايد التقدم التكنولوجي يوماً تلو الآخر، أصبح بإمكان البشر التحدث إلى الموتى، وهي تقنية قلبت الموازين في العصر الحديث، واختلف كثيرون في تصنيفها، فالبعض تقبلها، وآخرون يخشون منها، تجنباً لاستغلالها في أمور سلبية.
. التزييف العميق:
تندرج هذه التقنية تحت مصطلح «التزييف العميق المتطور»، والتي تجعل من الممكن «إنشاء دليل على مشاهد لم تحدث أبداً»، إلى الحد الذي وجد فيه بعض المشاهير أنفسهم في أحداث لم يحضروها، أو يقولون ما لم يتلوه يوماً.
وتعتمد هذه التقنية على دمج أي شخص في العالم في فيديو أو صورة، لم يشارك فيها مطلقاً، حتى لو كانت لأفراد فارقوا الحياة.
. طريقة إنشائه:
يعتبر المكون الرئيسي في هذه التقنية هو «التعلم الآلي»، مما جعل من الممكن إنتاج التزييف العميق بشكل أسرع بتكلفة أقل.
ولإنشاء مثل هذه المقاطع المزيفة، يجب على صانع المحتوى «تدريب شبكة عصبية على عدة ساعات، من لقطات فيديو حقيقية للشخص لمنحه فهمًا واقعيًا لما يبدو عليه من زوايا متعددة وتحت إضاءة مختلفة، ثم يدمج الشبكة المدربة مع تقنيات رسومات الكمبيوتر، بغرض تركيب نسخة من الشخص على ممثل مختلف».
. تشكل تهديداً:
حسب المنشور، تعتبر هذه التقنية مهددة للنساء، فالمواد الإباحية تمثل 96% من التزييف العميق، وهي المواد التي يعدها البعض بغرض الانتقام من بعضهن، أو ابتزازهن.
كما أوضح رئيس الأبحاث في شركة الكشف Deeptrace، هنري أجدر، أن هذه التقنية ترسخ للتنمر بشكل عام، في المدارس وأماكن العمل على وجه التحديد، فيمكن لأي شخص وضع الآخرين في سيناريوهات سخيفة أو خطيرة.
كذلك تخشى الشركات من الدور الذي يمكن أن تلعبه هذه التقنية في عمليات الاحتيال فائقة الشحن، كما تقلق منه مختلف الحكومات فيما يخص توجيه الرأي العام خلال الفعاليات السياسية.