التزييف العميق[1] (بالإنجليزية: Deepfake)[ا][3] هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي. تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.[4][5]
كما أثار الأكاديميون مخاوف بشأن احتمالية استخدام التزييف العميق للترويج للمعلومات المضللة وخطاب الكراهية والتدخل في الانتخابات. وقد استجابت صناعة تكنولوجيا المعلومات والحكومات لهذه المخاوف بتقديم توصيات للكشف عن هذه التقنية والحد من استخدامها.[10][11]
طُورت تقنيات التلاعب بالصور في القرن التاسع عشر، وسرعان ما وجدت طريقها إلى عالم السينما. وشهدت هذه التقنيات تطورًا تدريجيًا على مدار القرن العشرين، قبل أن تشهد تسارعًا ملحوظًا مع ظهور الفيديو الرقمي.
أما تقنية التزييف العميق، فقد بدأت تظهر في أبحاث المؤسسات الأكاديمية منذ تسعينيات القرن العشرين، ثم تبعها الهواة في المجتمعات الرقمية عبر الإنترنت.[18][19] وفي الآونة الأخيرة، تبنت الصناعة هذه التقنيات واستخدمتها على نطاق واسع.[20]
لقد حدث تطويرٌ كبيرٌ لهذه التقنيّة على مستويينِ؛ الأول أكاديمي وقانوني نوعًا ما والثاني غير قانوني حيثُ يقومُ فيهِ مبرمجون هواة بعمليات التطوير لا غير.
البحث الأكاديمي
يتمّ استغلال هذه التقنيّة في المجال الأكاديمي في بضعِ مجالات على رأسها مجال الرؤية الحاسوبيّة وهو حقل فرعي لعلوم الكمبيوتر يستند غالبًا إلى الذكاء الاصطناعي بحيثُ يركز على معالجة الكمبيوتر للصور ومقاطع الفيديو الرقمية بشكلٍ آلي. يُعدّ برنامج فيديو ريرايت (بالإنجليزية: Video Rewrite) الذي صدرَ في عام 1997 أوّل معالم هذه القنية حيثُ قام بتعديل فيديو لشخصٍ يتحدث في موضوع مُعيّن إلى فيديو لنفسِ الشخص يتحدث في موضوع آخر من خِلال استغلال الكلمات التي نطقها ذاك الشخص ومُحاولة ترتيبها في سياقٍ مختلف لتكوين جملٍ جديدة لم يقلها الشخص في الفيديو أصلًا.[21]
ركّزت المشاريع الأكاديمية المُعاصرة على إنشاء مقاطع فيديو أكثر واقعية وعلى جعل التقنية أكثر بساطة وأكثر سهولة. بحلول عام 2017؛ ظهر للوجود برنامجُ سانثيسيزينغ أوباما (بالإنجليزية: Synthesizing Obama) الذي نشرَ فيديو للرئيس الأمريكي السابق باراك أوباما وهوَ يتكلّم بصوتٍ عالٍ حول هذه التقنيّة مُحاولًا شرحَ مخاطرها وهو ما لم يفعلهُ الرئيس الأمريكي أصلًا بل إنّ البرنامج قامَ بجمعِ عددٍ من فيديوهات الرئيس ثمّ حاولَ استخراج الكلمات التي يحتاجها – والتي نُطقت في سياقٍ مختلفٍ – من أجلِ استعمالها في الفيديو الوهميّ الجديد.[22] عَرفت هذه التقنية تطورًا إضافيًا بعد ظهور برنامج فايس تو فايس (بالإنجليزية: Face2Face) الذي صدرَ عام 2016 والذي يقومُ بمحاكاة تعبيرات وجه شخص في فيديو قديم مُحولًا إيّاها إلى تعبيرات جديدة حسبَ رغبة المستخدم.[23]
مناهج العلوم الاجتماعية والإنسانية في التعامل مع التزييف العميق
في دراسات السينما، تكشف تقنيات التزييف العميق عن الوجه البشري ككيان مركزي للتناقض في العصر الرقمي.[24] وقد استغل فنانو السينما هذه التقنيات لإعادة صياغة تاريخ السينما بطريقة مرحة، وذلك بإعادة مزج الأفلام الكلاسيكية مع وجوه نجوم جدد.[25] وبدوره، يحلل الناقد السينمائي كريستوفر هوليداي كيف يؤدي استبدال جنس وعرق الممثلين في مشاهد سينمائية مألوفة إلى زعزعة ثوابت التصنيفات الجنسية.[25] كما نجد أن فكرة "تحويل" التزييف العميق إلى انحراف قد حظيت باهتمام أوليفر م. جينجريتش في تحليله للأعمال الفنية الإعلامية التي تستغل التزييف العميق لإعادة تشكيل الجنس.[26] ومن الأمثلة على ذلك عمل الفنان البريطاني جيك إلويس زيزي: تحويل مجموعة البيانات إلى شاذة، والذي يستخدم تقنيات التزييف العميق لملكات السحب في لعبة جندرية متعمدة. وبالتوازي مع ذلك، بدأ الباحثون في استكشاف الأبعاد الجمالية لتقنيات التزييف العميق. ويشير مؤرخ المسرح جون فليتشر إلى أن العروض الأولى للتزييف العميق قد قدمت كأداء مسرحي، مما يفتح آفاقًا جديدة للنقاش حول "التحولات المزعجة" التي تمثلها هذه التقنية كنوع أدائي جديد.[27]
ناقش الفلاسفة وعلماء الإعلام أخلاقيات التزييف العميق خاصة فيما يتعلق بالمواد الإباحية.[28] تستعين عالمة الإعلام إميلي فان دير ناجل بالبحث في دراسات التصوير الفوتوغرافي للصور المُتلاعب بها لمناقشة أنظمة التحقق، التي تسمح للنساء بالموافقة على استخدام صورهن.[29]
بعيدًا عن المواد الإباحية، صاغ الفلاسفة التزييف العميق باعتباره "تهديدًا معرفيًا" للمعرفة، وبالتالي للمجتمع.[30] وهناك العديد من الاقتراحات الأخرى حول كيفية التعامل مع المخاطر التي تطرحها تقنية التزييف العميق، والتي تتجاوز المواد الإباحية لتشمل الشركات والسياسيين وغيرهم، من "الاستغلال والترهيب والتخريب الشخصي".[31] وقد حظيت هذه التقنية بنصيب وافر من المناقشات العلمية حول الاستجابات القانونية والتنظيمية المحتملة في كل من الدراسات القانونية ودراسات الإعلام.[32] وفي سياق دراسات علم النفس والإعلام، يناقش الباحثون آثار التضليل الذي يستخدم تقنية التزييف العميق،[33][34] والتأثير الاجتماعي لهذه التقنية.[35]
في حين تركز معظم الدراسات الأكاديمية باللغة الإنجليزية حول تقنية التزييف العميق على المخاوف الغربية بشأن التضليل والمواد الإباحية، قام عالم الأنثروبولوجيا الرقمية غابرييل دي سيتا بتحليل الاستقبال الصيني لتقنية التزييف العميق، والتي تُعرف باسم هوانليان، والتي تُترجم إلى "تغيير الوجوه". لا يحتوي المصطلح الصيني على كلمة "مزيف" الموجودة في المصطلح الإنجليزي، ويزعم دي سيتا أن هذا السياق الثقافي قد يفسر سبب تركيز الاستجابة الصينية بشكل أكبر على الاستجابات التنظيمية العملية لـ "مخاطر الاحتيال، وحقوق الصورة، والربح الاقتصادي، واختلال التوازن الأخلاقي".[36]
أبحاث علوم الحاسوب حول التزييف العميق
كان من أبرز المشاريع المبكرة في هذا المجال برنامج إعادة كتابة الفيديو الذي نُشر عام 1997. وقد عُدلت فيه لقطات فيديو لشخص يتحدث لتصويره وهو ينطق كلمات مسار صوتي مختلف.[37] وكان أول نظام أتمتة هذا النوع من إعادة تنشيط الوجه بالكامل، وقد استخدم تقنيات التعلم الآلي لإيجاد صلات بين الأصوات التي يصدرها الشخص وشكل وجهه.[37]
ركزت المشاريع الأكاديمية اللاحقة على إنتاج مقاطع فيديو أكثر واقعية وتحسين التقنيات المستخدمة.[38][39] ومن الأمثلة على ذلك برنامج "توليف أوباما" الذي نُشر عام 2017، والذي عُدلت فيه لقطات فيديو للرئيس الأمريكي السابق باراك أوباما لتصويره وهو ينطق كلمات مسار صوتي آخر.[38] وقد اعتبر الباحثون أن المساهمة الرئيسية لهذا المشروع هي التقنية الواقعية التي استخدمها لتوليد حركات الشفاه من الصوت.[38] كما ظهر برنامج "وجه لوجه" (بالإنجليزية: Face2Face) عام 2016 والذي عُدلت فيه لقطات فيديو لوجه شخص ما لتصويره وهو يقلد تعبيرات وجه شخص آخر بشكل فوري.[39] وقد اعتبر الباحثون أن المساهمة الرئيسية لهذا المشروع هي إيجاد طريقة جديدة لإعادة تمثيل تعبيرات الوجه بشكل فوري باستخدام كاميرا لا تلتقط العمق، مما يجعل هذه التقنية متاحة للاستخدام مع الكاميرات الشائعة.[39]
في أغسطس 2018 نشر باحثون من جامعة كاليفورنيا في بيركلي بحثًا قدموا فيه تطبيقًا مبتكرًا لإنشاء رقصة وهمية، حيث يمكن للذكاء الاصطناعي أن يُوهم المشاهد بمهارة رقص عالية.[40] يوسع هذا المشروع نطاق تقنية التزييف العميق لتشمل الجسم بأكمله، على عكس الأعمال السابقة التي كانت تركز على الوجه أو أجزاء منه فقط.[41]
أظهر الباحثون كذلك أن تقنية التزييف العميق تتعدى ذلك لتصل إلى مجالات أخرى، مثل التلاعب بالصور الطبية.[42] في هذا السياق، بيّنوا كيف يمكن للمخترقين أن يقوموا بزرع أو حذف ورم رئوي بشكل آلي في فحص التصوير المقطعي المحوسب ثلاثي الأبعاد للمريض. كانت النتيجة محاكاة واقعية للغاية لدرجة أنها استطاعت تضليل ثلاثة أخصائيين في الأشعة والذكاء الاصطناعي متخصصين في اكتشاف سرطان الرئة. وللتأكيد على خطورة هذا التهديد، نفذ الباحثون هجومًا مماثلًا بنجاح على أحد المستشفيات في اختبار اختراق أخلاقي.[43]
أجرى استطلاع للرأي نُشر في مايو 2020 مسحًا زمنيًا لتطور تقنيات توليد المحتوى المزيف واكتشافه على مدى السنوات القليلة الماضية.[44] وقد حدد هذا الاستطلاع التحديات الجوهرية التي يواجهها الباحثون في هذا المجال، والتي يمكن تلخيصها فيما يلي:
التعميم: تطوير نماذج قادرة على توليد محتوى مزيف بجودة عالية وباستخدام كمية بيانات تدريب أقل، مع القدرة على التعامل مع هويات جديدة.
التدريب المقترن: التغلب على الصعوبات المرتبطة بإقران البيانات المطلوبة لتدريب النماذج، وذلك من خلال استخدام تقنيات مثل التدريب الذاتي الإشرافي أو الشبكات غير المقترنة.
تسرب الهوية: معالجة مشكلة انتقال بعض خصائص "السائق" إلى الوجه الناتج، باستخدام تقنيات مثل آليات الانتباه وفك التشابك.
الانسدادات: التعامل مع العقبات التي تسببها العناصر التي تحجب الوجه، مثل الأيدي أو النظارات، وذلك من خلال تقنيات مثل تجزئة الصور أثناء التدريب.
التماسك الزمني: تحسين واقعية الفيديوهات المزيفة من خلال تضمين سياق الإطارات السابقة أو استخدام دالات خسارة مخصصة لتحقيق التماسك بين الإطارات.
بشكل عام، يتوقع الخبراء أن يكون لتقنية التزييف العميق آثار عميقة على مختلف المجالات، بما في ذلك: وسائل الإعلام، وإنتاج المحتوى الإعلامي، وتمثيل الأفراد في الإعلام، وجمهور الإعلام، والجنس، والقانون، والتنظيم، والسياسة.[45]
تطوير الهواة
نشأَ مصطلح التزييف العميق في نهاية عام 2017 من أحدِ مستخدمي ريديت والذي سمّى نفسه ديب فايكس (بالإنجليزية: deepfakes).[46] قام هذا المستخدم وآخرون بمشاركة فيديوهات إباحية مزيّفة كانوا قد صنعوها لمشاهير؛[46] حيثُ قاموا مثلًا بتحميل فيديوهات يظهرَ فيها ممثلون إباحيون حقيقيون ثمّ استبدلوا وجهَ الممثل الإباحي بوجهِ ممثل أمريكي مشهور. حقّقت تلك الفيديوهات نسب مشاهدات عاليّة كما تمّ تداولها على نطاقٍ كبيرٍ في مواقع التواصل كونها «مُتقنَة نوعًا ما» ومن الصعبِ معرفة ما إذا كانت مزيّفة أم لا وخاصّة الفيديو المزيّف للممثل الأمريكي نيكولاس كيج والذي كان «واقعيًا» وصدقهُ الكثير.[47] في ديسمبر 2017؛ نشرت سامانثا كول مقالةً حول موضوع التزييف العَميق في مجلّة فيس ولفتت الانتباه فيها إلى الفيديوهات التي يتمّ مشاركتها على مواقع التواصل وكيفَ تُساهم في ترويج الأخبار الكاذبة أو المُزيّفة.[48]
بحلول فبراير 2018 وبعد أن كَثُر الحديث حول هذه التقنيّة قام موقع ريديت بحظر المُستخدم ديب فايكس (بالإنجليزية: deepfakes) بدعوى نشرهِ لمقاطع فيديو إباحية مزيّفة كما قامت باقي المواقع بحظرِ كل من يروّج لهذهِ التقنيّة بما في ذلك موقع التواصل الاجتماعي المُصغّر تويتر وكذا موقع بورن هاب الإباحي.[49] ومع ذلك؛ لا تزال هناك مجتمعات أخرى على الإنترنت – بما في ذلك مجتمعات ريديت – تعملُ على مشاركة الفيديوهات المصنوعة بهذهِ التقنيّة بل يقومُ بعضٌ من مستخدمي ريديت بنشرِ فيديوهات وصور مزيّفة لعددٍ من المشاهير والسياسيين ولا تمّت للحقيقة بصلة،[50] في حين تُواصل المجتمعات الأخرى على الإنترنت مشاركة هذهِ المواد بعلمٍ أو بدونِ علم.[49]
التطوير التجاري
في يناير 2018؛ أُطلق برنامج فايك آب (بالإنجليزية: FakeApp) للحواسيب.[51] يسمحُ هذا البرنامج للمستخدمين بإنشاء ومشاركة مقاطع الفيديو بسهولة مع تغيير الوجوه،[52] حيثُ يستخدم شبكة عصبية اصطناعية وقوة معالج رسومات وثلاثة إلى أربعة جيجا بايت من مساحة التخزين لإنشاء الفيديو المزيف؛ وَللحصول على معلومات مفصلة يحتاج البرنامج إلى إدخال الكثير من المواد المرئية لنفسِ الشخص لمعرفة جوانب الصورة التي يجب تبادلها باستخدام خوارزمية التزييف العميق القائمة على تسلسل الفيديو والصور. يستخدم البرنامج عددًا من التقنيّات بما في ذلك تنسرفلو من جوجل كما يعتمدُ على خوارزميّة برنامج ديب دريم (بالإنجليزية: DeepDream).[53] بشكلٍ عام؛ يُعدّ المشاهير الموضوع الرئيسي لمقاطع الفيديو المزيفة هذه لعدّة أسباب من بينها سهولة جمع فيديوهات عنهم من النت على عكسِ الأشخاص العاديين.[54][55]
وقد بدأت الشركات الكبرى في استخدام تقنية التزييف العميق.[20] فمن الممكن الآن إنشاء مقاطع فيديو تدريبية للشركات باستخدام صور رمزية مزيفة وأصواتهم، مثلما تفعل شركة "سينثيسيا" التي تستخدم تقنية التزييف العميق مع الصور الرمزية لإنشاء مقاطع فيديو مخصصة.[56] كما أن الشركة المشغلة لتطبيق "مومو" للهواتف الذكية قد أنشأت تطبيقًا آخر يسمى "زاو" (بالإنجليزية: Zao) والذي يسمح للمستخدمين بفرض وجوههم على مقاطع تلفزيونية وأفلام بضغطة زر واحدة.[20] وأعلنت شركة "داتا غريد" اليابانية المتخصصة في الذكاء الاصطناعي تمكنها من إنشاء تزييف عميق للجسم بالكامل، مما يمكنه من توليد شخص كامل من الصفر.[57]
في عام 2020 ظهرت أيضًا مقاطع صوتية مزيفة،[58][59] وبرامج ذكاء اصطناعي قادرة على اكتشاف هذه المقاطع الصوتية المزيفة،[60][61] واستنساخ الأصوات البشرية بعد خمس ثوانٍ فقط من الاستماع إليها.[62][63] وتم إطلاق تطبيق "إمبريشنز" (بالإنجليزية: Impressions) للهواتف المحمولة والذي يتخصص في إنشاء مقاطع صوتية مزيفة في مارس 2020. وقد كان هذا التطبيق هو الأول من نوعه في مجال إنشاء مقاطع فيديو مزيفة للمشاهير من الهواتف المحمولة.[64][65]
إن قدرة تقنية التزييف العميق على اختلاق رسائل وأفعال الآخرين قد امتدت لتشمل حتى الأفراد المتوفين. ففي 29 أكتوبر 2020، نشرت كيم كارداشيان مقطع فيديو يظهر تصوير تجسيمي لوالدها الراحل، روبرت كارداشيان، أنتجته شركة كاليدا، والتي استخدمت مزيجًا من الأداء وتتبع الحركة والمؤثرات الصوتية والبصرية وتقنيات التزييف العميق لخلق هذا الوهم.[73][74]
وفي عام 2020 تم إنشاء مقطع فيديو مزيف لخواكين أوليفر، ضحية إطلاق النار في باركلاند، كجزء من حملة سلامة الأسلحة. وقد تعاون والدا أوليفر مع منظمة "غيّر المرجع" غير الربحية و"ميكان هيلث" لإنتاج مقطع فيديو يشجع فيه أوليفر الناس على دعم تشريعات سلامة الأسلحة والسياسيين المؤيدين لها.[75]
وفي عام 2022 استُخدم مقطع فيديو مزيف لإلفيس بريسلي في برنامج "أمريكا غوت تالنت" في موسمه السابع عشر.[76] كما استخدم إعلان تلفزيوني مقطع فيديو مزيفًا لعضو فرقة البيتلزجون لينون الذي قُتل عام 1980.[77]
التقنيات
تعتمد تقنية التزييف العميق على نوع خاص من الشبكات العصبية يُعرف بالمشفر التلقائي.[78] تتألف هذه الشبكات من مرحلتين رئيسيتين: الأولى هي المشفر الذي يعمل على تقليص الصورة إلى تمثيل كامن ذي أبعاد أقل، والثانية هي فك التشفير الذي يقوم بإعادة بناء الصورة من هذا التمثيل الكامن.[79] تستغل تقنية التزييف العميق هذه البنية من خلال استخدام مشفر عالمي يقوم بتشفير وجه الشخص في هذا التمثيل الكامن.[بحاجة لمصدر] يحتوي هذا التمثيل الكامن على السمات الأساسية لملامح الوجه وحركة الجسم. يمكن بعد ذلك استخدام نموذج مدرب خصيصًا للشخص المستهدف لفك تشفير هذا التمثيل، مما يعني أن الملامح التفصيلية للشخص المستهدف ستُفرض على ملامح الوجه والجسم الأساسية للفيديو الأصلي الممثلة في التمثيل الكامن.[بحاجة لمصدر]
يشمل أحد التطويرات الشائعة لهذه البنية ربط شبكة توليدية تنافسية بمرحلة فك التشفير. تتكون شبكة تعلم الآلة العدائي من مولد، وهو في هذه الحالة مرحلة فك التشفير، ومميز يتنافسان مع بعضهما البعض. يقوم المولد بإنشاء صور جديدة من التمثيل الكامن للمادة المصدرية، بينما يحاول المميز تحديد ما إذا كانت الصورة حقيقية أم مزيفة.[بحاجة لمصدر] يؤدي هذا التنافس إلى تحسين قدرة المولد على إنشاء صور واقعية للغاية، حيث يتم اكتشاف أي عيوب من قبل المميز وتصحيحها باستمرار.[80] هذا التطور المتبادل بين المولد والمميز يجعل من الصعب مكافحة التزييف العميق، حيث أنه يتطور باستمرار؛ فكلما تم اكتشاف عيب جديد، يتم إيجاد حل له.[80]
التطبيقات
التمثيل
ظهرت في الأفلام من قبل نسخ رقمية لممثلين محترفين، ومن المتوقع أن يؤدي التقدم في تقنية التزييف العميق إلى زيادة إمكانية الوصول إلى هذه النسخ وتطوير فعاليتها.[81] وقد شكل استخدام تقنيات الذكاء الاصطناعي قضية رئيسية في إضراب نقابة ممثلي الشاشة ورابطة ممثلي الشاشة لعام 2023، حيث أتاحت التقنيات الحديثة إمكانية إنشاء وتخزين صور رقمية للاستعاضة عن الممثلين أنفسهم.[82]
حسنت شركة والت ديزني مؤثراتها البصرية بشكل ملحوظ من خلال اعتماد تقنية متطورة لتبديل الوجوه بدقة عالية.[83] وقد تمكنت ديزني من تطوير هذه التقنية من خلال تدريب خوارزمياتها بشكل متكرر لتحديد تعبيرات الوجه بدقة، ومن ثم تنفيذ عملية تبديل الوجوه وتكرارها لتحسين النتائج بشكل مستمر.[83] وتوفر هذه التقنية المبتكرة لتزييف الوجوه بدقة عالية وفورات كبيرة في التكاليف التشغيلية والإنتاجية.[84] إذ يستطيع نموذج ديزني لتوليد التزييف العميق إنتاج وسائط رقمية عالية الدقة بحجم 1024 × 1024 بكسل، مقارنة بالنماذج التقليدية التي تنتج وسائط بدقة أقل بكثير (256 × 256 بكسل).[84] وتتيح هذه التقنية لشركة ديزني إمكانية إزالة آثار الشيخوخة من الشخصيات أو حتى إحياء شخصيات ممثلين رحلوا عن عالمنا.[85] وقد سبق للمعجبين استخدام تقنيات مماثلة، وإن كانت بشكل غير رسمي، لإدراج وجوه شخصيات محببة في أعمال فنية موجودة، مثل إدراج وجه هاريسون فورد الشاب على وجه شخصية هان سولو في فيلم سولو: قصة من حرب النجوم.[86] كما استخدمت ديزني نفسها تقنية التزييف العميق في فيلم روج ون: قصة من حرب النجوم لإعادة ظهور شخصيتي الأميرة ليا وغراند موف تاركين.[87][88]
استعان الفيلم الوثائقي "أهلًا بكم في الشيشان" لعام 2020 بتقنية التزييف العميق لإخفاء هويات المشاركين في المقابلات، وذلك بهدف حمايتهم من الانتقام المحتمل.[89]
طورت وكالة "كرييتيف آرتيستس إيجنسي" مرفقًا لالتقاط صورة للممثل "في يوم واحد" بغرض تطوير نسخة رقمية منه، تخضع لسيطرة الممثل أو ورثته إلى جانب حقوق شخصيته الأخرى.[90]
شملت قائمة الشركات التي استخدمت نسخًا رقمية لممثلين محترفين في إعلاناتها كلًا من بوما ونايكي وبروكتر وغامبل.[91]
أتاح التزييف العميق إمكانية تصوير ديفيد بيكهام بعدة لغات بلغت قرابة التسع لغات، وذلك في حملة توعية مكافحة الملاريا.[92]
في فيلم الخيال العلمي الهندي التاميلي لعام 2024 الأعظم على مر العصور، تم تصوير النسخة المراهقة من شخصية فيجاي جيفان بواسطة أياز خان، ثم تم استخلاص وجه فيجاي المراهق من خلال تقنية التزييف العميق المعتمدة على الذكاء الاصطناعي.[93]
الفن
في مارس 2018 قدم الفنان المتعدد المواهب جوزيف إيرلي عملًا فنيًا بصرياً يحمل عنوان "العاطفة الأبدية 2.0". وقد ابتكر إيرلي شخصية افتراضية مستخدمًا تقنية التزييف العميق، وهي نسخة مُصطنعة من أورنيلا موتي النجمة السينمائية الإيطالية الشهيرة في الثمانينيات. هذه التقنية، التي تجد تطبيقات واسعة في مجالات التعليم والإعلام، تتيح إنتاج مقاطع فيديو واقعية ومحتوى تفاعلي، مما يفتح آفاقًا جديدة للتواصل مع الجماهير. ومع ذلك، فإن هذه التقنية تحمل في طياتها مخاطر، لا سيما في مجال نشر المعلومات المضللة، مما يستدعي ضرورة استخدامها بحذر ووضع ضوابط صارمة لها.
أشار معهد ماساتشوستس للتقانة إلى هذا العمل في دراسة حول "الحكمة الجماعية".[94] واستغل الفنان هذه القفزة الزمنية لشخصية أورنيلا موتي لاستكشاف الانعكاسات الثقافية بين الأجيال، كما طرح تساؤلات حول دور الاستفزاز في عالم الفن.[95] من الناحية التقنية، استخدم إيرلي لقطات لعارضة الأزياء كيندال جينر، ثم استبدل برنامج الحاسوب وجه جينر بوجه أورنيلا موتي المُنشأ باستخدام تقنيات الذكاء الاصطناعي. وبهذه الطريقة، حصلت الشخصية الافتراضية على وجه الممثلة الإيطالية وجسد عارضة الأزياء الأمريكية.
انتشرت تقنية التزييف العميق انتشارًا واسعًا في ميدان السخرية والتقليد، حيث استخدمت لمحاكاة المشاهير والسياسيين. ويمثل مسلسل "العدالة المتكبرة" (Sassy Justice) الذي أنتج عام 2020 على يد تري باركر ومات ستون مثالًا صارخًا على ذلك، إذ استخدم المسلسل شخصيات عامة مزيفة بشكل كبير للسخرية من الأحداث الجارية والتوعية بمخاطر تقنية التزييف العميق.[96]
الابتزاز
يمكن استغلال المواد المزيفة في ابتزاز افتراضي بهدف تشويه سمعة الأبرياء ظلماً. وقد حذر تقرير صادر عن مجلس البحوث التابع للكونغرس الأمريكي من احتمال استغلال هذه المواد لابتزاز المسؤولين المنتخبين أو أصحاب الولوج إلى معلومات سرية بغرض التجسس أو التأثير عليهم.[97]
بيد أن صعوبة التمييز بين الحقيقة والزيف قد مكّنت ضحايا الابتزاز الحقيقي من الادعاء بأن الأدلة المقدمة ضدهم مزيفة، مما يمنحهم حجة قوية للإنكار. ونتيجة لذلك، تضعف مصداقية مواد الابتزاز، ويقل بذلك تأثير المبتزين وتهديداتهم. ويمكن إطلاق تسمية "تضخم الابتزاز" على هذه الظاهرة، حيث يؤدي إلى تقليل قيمة الابتزاز الحقيقي وجعله عديم الجدوى.[98] ومن الجدير بالذكر أنه يمكن الاستعانة بوحدات معالجة الرسومات التجارية وبرامج بسيطة لتوليد كميات هائلة من محتوى الابتزاز المزيف لأي شخص، مما يؤدي إلى زيادة غير محدودة في إمدادات هذا النوع من المحتوى بطريقة سهلة وقابلة للتطوير.[99]
الترفيه
في يونيو 2022 تعاون دانييل إيميت، أحد المتسابقين السابقين في برنامج المواهب أمريكا غوت تالنت، مع شركة "ميتافيزيك إيه آي" الناشئة[100][101] لإنتاج مقطع فيديو مزيف بشكل واقعي شديد ليظهر وكأنه سايمون كاول. اشتهر كويل بنقده اللاذع للمتسابقين، [102] وفي هذا المقطع، بدا وكأنه على خشبة المسرح يغني أغنية "أنت الإلهام" لفرقة شيكاغو. وبينما كان إيميت يؤدي الأغنية على المسرح، ظهرت صورة سيمون كويل على الشاشة خلفه بتزامن مثالي.[103] وفي 30 أغسطس قلدت الشركة كل من سيمون كويل وهاوي مانديل وتيري كروز وهم يؤدون أغنيات الأوبرا على خشبة المسرح.[104] وقدمت في سبتمبر عرضًا بحيث ظهرت نسخة اصطناعية من إلفيس بريسلي في نهائيات برنامج المواهب الأمريكي.[105]
وفي عام 2023 دخلت فرقتا "أبا" وكيس في شراكة مع إندستريال لايت آند ماجيك و"بوبهاوس إنترتينمنت" لتطوير صور رمزية مزيفة قادرة على تقديم حفلات موسيقية افتراضية.[109]
الاحتيال والخداع
يستخدم المحتالون تقنية التزييف العميق لخداع الناس وإفرازهم في خطط الاستثمار الزائفة، والنزاهة المالية، والعملات الرقمية، وإرسال المال، واتباع التأييدات الزائفة. تم استخدام صور وأفعال شخصيات مشهورة وسياسيين لتنفيذ هذه الاحتيالات على نطاق واسع، بالإضافة إلى تلك الخاصة بالأفراد العاديين، التي تُستخدم في هجمات التصيد الاحتيالي. ووفقًا لمكتب الأعمال الأفضل، تزداد شعبية الاحتيالات التي تستخدم تقنية التزييف العميق.[110]
تُستخدم تقنية التزييف العميق لعمليات احتيال مختلفة، مثل: تقديم هدايا زائفة من أدوات الطهي من لو كروسيه مقابل "رسوم شحن" دون تسليم المنتجات، إلا مع رسوم شهرية مخفية؛[111] حلويات إنقاص الوزن التي تُفرض تكاليف أكثر بكثير مما قيل؛ 19] هدايا مزيفة لهواتف آيفون؛ [111][120] ومخططات احتيالية للثراء السريع، [114][122] والاستثمار، [123] والعملات الرقمية.[116][124]
تُزود العديد من الإعلانات تقنية استنساخ الصوت بالذكاء الاصطناعي بـ"مقاطع فيديو منزوعة السياق لشخصيات مشهورة" لمحاكاة الأصالة. وتستخدم إعلانات أخرى مقطعًا كاملًا من فيديو لشخصية بارزة قبل الانتقال إلى ممثل أو صوت مختلف.[119] وقد تتضمن بعض الاحتيالات تقنيات التزييف العميق في الوقت الفعلي.[120]
يحذر المشاهير الناس من هذه التأييدات الزائفة ويحثونهم على توخي الحذر ضدها.[110][111] من غير المرجح أن يقوم المشاهير برفع دعاوى قضائية ضد كل شخص يستخدم تزييف عميق احتيالية، لأن "العثور على المستخدمين المجهولين لوسائل التواصل الاجتماعي ومقاضاتهم يتطلب موارد كثيفة"،[113] على الرغم من أن خطابات التوقف والكف الموجهة لشركات وسائل التواصل الاجتماعي تكون فعالة في إزالة الفيديوهات والإعلانات.[125]
تُستخدم تقنية التزييف العميق الصوتي كجزء من احتيالات الهندسة الاجتماعية، حيث تخدع الأشخاص ليظنوا أنهم يتلقون تعليمات من شخصية موثوق بها.[126] في عام 2019 تعرّض الرئيس التنفيذي لشركة طاقة مقرها المملكة المتحدة لعملية احتيال عبر الهاتف، حيث طُلب منه تحويل مبلغ قدره 220 ألف يورو إلى حساب مصرفي في هنغاريا من قبل شخص استخدم تقنية التزييف العميق الصوتي لانتحال صوت الرئيس التنفيذي لشركة الأم.[127][128]
ابتداءً من عام 2023، أسهمت التطورات المتسارعة في تقنية التزييف العميق، والتي باتت قادرة على استنساخ صوت الفرد بدقة عالية من تسجيل صوتي لا يتجاوز بضع ثوانٍ أو حتى دقيقة واحدة، بالإضافة إلى ظهور أدوات متقدمة لتوليد النصوص، في تمكين عمليات الاحتيال الآلي التي تستهدف الضحايا من خلال استخدام نسخ رقمية مقنعة لأصدقاء أو أقارب الضحية.[129]
إخفاء الهوية
يمكن استغلال تقنيات التزييف العميقي الصوتية لإخفاء الهوية الحقيقية للمستخدم. ففي عالم الألعاب الإلكترونية على سبيل المثال، قد يرغب اللاعب في انتحال صوت شخصية اللعبة عند التفاعل مع اللاعبين الآخرين. كما يمكن للأفراد المعرضين للمضايقات، مثل النساء والأطفال، أن يستعينوا بـ "جلود الأصوات" هذه لإخفاء جنسهم أو أعمارهم.[130]
الميمات
شهد عام 2020 ظهور لقيفة إنترنت (ميمٍ إلكتروني) يستند إلى تقنيات التزييف العميقي، حيث تم إنتاج مقاطع فيديو لأشخاص يؤدون جوقة أغنية "باكا ميتاي" (بمعنى "أحمق للغاية") المستمدة من لعبة ياكوزا زيرو ضمن سلسلة ألعاب الفيديو ياكوزا. في اللعبة الأصلية، يؤدي اللاعب هذه الأغنية الحزينة في لعبة كاراوكيمصغرة. وقد استخدمت معظم نسخ هذا الميم مقطع فيديو عام 2017 نشره المستخدم "دوبسيرول"، والذي قام بمزامنة الأغنية مع حركاته الشفوية، كقالب أساسي.[131][132]
في يونيو 2019، عقدت لجنة الاستخبارات بمجلس النواب الأمريكي جلسات استماع بشأن الاستخدام الخبيث المحتمل لمقاطع الفيديو المزيفة للتأثير على الانتخابات.[140]
في أبريل 2020 نشر الفرع البلجيكي لحركة تمرد ضد الانقراض مقطع فيديو مزيف عميق على منصة فيسبوك، يظهر فيه رئيسة الوزراء البلجيكية صوفي ويلميس. وقد روّج هذا الفيديو لوجود صلة محتملة بين ظاهرة إزالة الغابات وظهور فيروس كورونا المستجد لعام 2019. وقد حقق هذا الفيديو انتشارًا واسعًا. وعلى صفحة فيسبوك التي نشر فيها هذا الفيديو، اعتقد الكثير من المستخدمين أن هذا المقطع مصور بشكل حقيقي، ولم يدركوا أنه من صنع تقنيات التزييف العميق.[141]
شهدت الحملة الرئاسية الأمريكية لعام 2020 انتشارًا واسعًا للمقاطع المزيفة التي زعمت إصابة جو بايدن بتدهور معرفي، حيث صورته هذه المقاطع وهو ينام أثناء المقابلات، أو يضل طريقه، أو يخطئ في التعبير عن أفكاره، الأمر الذي ساهم في تعزيز الشائعات المتعلقة بتدهور حالته الصحية.[142][143]
خلال الحملة الانتخابية للجمعية التشريعية في دلهي لعام 2020، لجأ حزب بهاراتيا جاناتا في دلهي إلى استخدام تقنية متطورة لتوزيع نسخة معدلة من إعلان انتخابي باللغة الإنجليزية لمانوج تيواري، حيث تم ترجمته إلى لغة هاريانا لتوجيه رسالة مباشرة إلى الناخبين المنحدرين من ولاية هاريانا. وقد تم الاستعانة بممثل لتوفير التعليق الصوتي، ثم تم توظيف تقنيات الذكاء الاصطناعي المدربة على مقاطع فيديو سابقة لخطب تيواري لمزامنة الفيديو مع التعليق الصوتي الجديد. وقد وصف أحد أعضاء الطاقم الحزبي هذا الإجراء بأنه "استخدام إيجابي" لتقنية التزييف العميق، حيث أتاحت لهم الفرصة "للتواصل بشكل مقنع مع شريحة واسعة من الجمهور المستهدف، حتى وإن لم يكن المرشح يتحدث لغة الناخبين".[144]
في أبريل من عام 2021، قام شخصان محتالان، يُعرفان باسم فوفان ولكزس ويُتهمَان بالعمل لصالح الدولة الروسية، بالتواصل مع عدد من السياسيين الأوروبيين،[146][147] مُنتحلَين شخصية ليونيد فولكوف، السياسي الروسي المعارض ورئيس أركان حملة أليكسي نافالني، زعيم المعارضة الروسية. وقد تم ذلك باستخدام تقنية التزييف العميق، كما جاء في مصادر متعددة.[148][149] مع ذلك، نفى الثنائي في تصريحات لصحيفة ذا فيرج استخدامهما لتقنية التزييف العميق، مدعيين أنهما استعانا بشخص يشبه فولكوف في المظهر فقط.[150]
في مايو 2023 انتشر مقطع فيديو مزيف لنائبة الرئيس كامالا هاريس على وسائل التواصل الاجتماعي، حيث يزعم أنها تتلعثم في كلماتها وتتحدث بشكل لا معنى له عن اليوم والغد والأمس.[151][152] وفي يونيو 2023 استخدمت الحملة الرئاسية لرون دي سانتيس تقنية التزييف العميق لتحريف صورة دونالد ترامب.[153]
في مارس 2024 شهدت الانتخابات التشريعية في الهند استخدامًا واسع النطاق لتقنية التزييف العميق من قِبل المرشحين السياسيين بهدف الوصول إلى شريحة أوسع من الناخبين. وقد لجأ العديد من هؤلاء المرشحين إلى استغلال تقنيات التزييف العميق المدعومة بالذكاء الاصطناعي والتي ابتكرتها شركة هندية ناشئة تُعرف باسم "ذا إنديان ديب فيكر" أسسها ديفيندرا سينغ جادون، [154] وذلك لترجمة خطاباتهم السياسية إلى لغات إقليمية متعددة، مما أتاح لهم التواصل بفاعلية مع مختلف المجتمعات اللغوية المنتشرة في أرجاء البلاد. وقد شكل هذا الارتفاع في استخدام تقنية التزييف العميق في الحملات الانتخابية تحولًا جذريًا في أساليب الدعاية السياسية في الهند.[155][156]
ظهرت المواد الإباحية المُنتَجة عبر تقنيّة التزييف العميق على الإنترنت في عام 2017 ولا سيما على موقع ريديت،[157] لكنّ هذا الأخير قام بحظرها ونفس الأمر فعلهُ موقعي تويتروبورن هاب.[158][159][160] في خريف عام 2017؛ نشر مستخدم مجهولٌ على موقع ريديت العديد من مقاطع الفيديو الإباحية المُنتجة بتلك التقنيّة وتُعدّ الممثلة ديزي ريدلي أوّل من لفتت الانتباه إلى حساب ذاك المستخدم وما يقومُ به فتبيّن فيما بعد أنّه ذو خِبرة في مجال صناعة مثل هذه الفيديوهات حيثُ كان قد نشرَ مقطعًا إباحيًا مزيفًا تظهرُ فيه عارضة الأزياء الإسرائيلية غال غادوت وهي تُمارس الجنس مع شقيق زوجها كما نشرَ فيديوهات إباحية أخرى مزيّفة لكل من إيما واتسون، كيتي بيري، تايلور سويفتوَسكارليت جوهانسون. كلّ المشاهد لم تكن حقيقية بالطبع؛ حيثُ تمّ إنشاؤها عبر الذكاء الاصطناعي وقد تمّ اكتشافها بعد وقتٍ قصيرٍ من قِبل خُبراء في مجال علوم الكمبيوتر.
مع مرور الوقت؛ قامَ مجتمع ريديت بإصلاح العديد من الأخطاء في مقاطع الفيديو المزيفة ما جعلَ من الصعبِ اكتشافها أو التمييز بينها وبينَ المحتوى الحقيقي. في المُقابل حاول آخرون تطوير برامج تقومُ بجمعِ الفيديوهات والصور الحقيقيّة على النت وتخزنها كبيانات من أجل التدريب على التمييز بين المحتوى الوهمي والمحتوى الحقيقي. جديرٌ بالذكر هنا أنّ القسم الفني والعلمي في مجال فيس هو أول من أبلغَ عن هذه الظاهرة لأوّل مرة في ديسمبر 2017 فقامت باقي وسائل الإعلام الأخرى بتغطية الموضوع.[161][162]
تحدثت سكارليت جوهانسون علنًا عن موضوع التزييف العميق خِلال مقابلة لها معَ واشنطن بوست في ديسمبر من عام 2018 حيثُ أعربت عن قلقها إزاء هذه «الظاهرة» ووصفت عالمَ الإنترنت بأنهُ «ثقبٌ كبيرٌ من الظلام يأكل نفسه». ومع ذلك؛ قالت سكارليت أيضًا بأنها لن تحاول إزالة أي من الفيديوهات خاصتها المُنشئة بهذه التقنيّة نظرًا لاعتقادها أنها لا تؤثر على صورتها العامة وأن القوانين في مختلف البلدان وطبيعة ثقافة الإنترنت تَجعل أيّ محاولة لإزالة هذا النوع من المُحتوى «قضية فاشلة»؛ كما استرسلت: «نحنُ معشر المشاهير نحظى بحمايةٍ بسببِ شهرتنا لكنّ قضية التزييف العميق قد تؤثر وبشكلٍ كبيرٍ على النساء ذوات الشهرة الأقل والذي يمكن أن تتعرض سمعتهنّ للتضرر في حالة ما تمّ تصويرهنّ زيفًا في فيديوهات إباحية أو شيء من هذا القَبيل.[163]»
وسائل التواصل الاجتماعي
بدأت تقنية التزييف العميق تنتشر انتشارًا واسعًا على منصات التواصل الاجتماعي، وبرز تطبيق "زاو" الصيني مثالًا واضحًا على ذلك. فقد أتاح هذا التطبيق للمستخدمين استبدال وجوههم بوجوه شخصيات مشهورة في أعمال فنية كلاسيكية ومعاصرة مثل روميو وجولييت وصراع العروش، مما أثار جدلًا واسعًا حول خصوصية البيانات واستخدام هذه التقنية.[164] ورغم أن الشركة المطورة للتطبيق زعمت لاحقًا أنها ستراجع سياستها حيال هذا الشأن، إلا أن المخاوف ظلت قائمة.[20]
وفي سياق متصل، أعلنت شركة فيسبوك عن اتخاذها تدابير جديدة لمواجهة التزييف العميق على منصاتها، وذلك في يناير من عام 2020.[165] كما أشارت دائرة أبحاث الكونجرس إلى أدلة غير مباشرة تشير إلى استخدام أجهزة استخبارات أجنبية لتقنية التزييف العميق في إنشاء حسابات وهمية على وسائل التواصل الاجتماعي بهدف تجنيد أفراد ذوي صلة بمعلومات حساسة.[97]
وفي تطور مثير للاهتمام، انتشرت على منصة تيك توك في عام 2021 مقاطع فيديو واقعية مزيفة للممثل توم كروز، حصدت ملايين المشاهدات. وقد تمكن فنان المؤثرات البصرية البلجيكي كريس أومي من إنشاء نسخة طبق الأصل للممثل باستخدام تقنيات الذكاء الاصطناعي، ظهرت فيها شخصية كروز وهي تقوم بأنشطة يومية مختلفة.[166] وقد أبدى أومي اهتمامًا كبيرًا بتقنية التزييف العميق منذ عام 2018، مؤكدًا على إمكاناتها الإبداعية الواسعة.[167][168]
الحسابات الوهمية
يمكن استخدام صور التزييف العميق لإنشاء شخصيات وهمية، يتفاعلون على الإنترنت وفي وسائل الإعلام التقليدية. ويبدو أن صورة تزييف عميق قد صُنعت مع قصة لشخص غير موجود يدعى أوليفر تايلور، وُصِف بأنه طالب جامعي في المملكة المتحدة. وقد قدمت شخصية أوليفر تايلور مقالات رأي في العديد من الصحف، وكانت نشطة على وسائل الإعلام الإلكترونية حيث هاجمت أكاديميًا قانونيًا بريطانيًا وزوجته، ووصفتهما بأنهما "متعاطفان مع الإرهابيين". وقد لفت الأكاديمي الانتباه الدولي في عام 2018 عندما رفع دعوى قضائية في إسرائيل ضد شركة إن إس أو، وهي شركة مراقبة، نيابة عن أشخاص في المكسيك زعموا أنهم ضحايا لتقنية قرصنة الهواتف التابعة للشركة. ولم تتمكن رويترز من العثور إلا على سجلات قليلة لأوليفر تايلور، ولم تجد جامعته أي سجلات عنه. واتفق العديد من الخبراء على أن الصورة الشخصية هي صورة تزييف عميق. ولم تسحب العديد من الصحف المقالات المنسوبة إليه أو تزيلها من مواقعها الإلكترونية. ويخشى أن تكون هذه التقنيات ساحة معركة جديدة في التضليل.[169]
نُشرت صور مزيفة لأشخاص غير موجودين على صفحة "الربيع الصهيوني" على فيسبوك كجزء من الدعاية الحزبية الإسرائيلية. تضمنت الصور شهادات تزعم تخلي أصحابها عن سياساتهم اليسارية لتبني اليمينية، مع منشورات من بنيامين نتنياهو ومصادر يمينية. تم إنشاء الصور باستخدام تقنية "تركيب الصور البشرية"، وروّجت محطات التلفزيون اليمينية لهذه الشهادات رغم عدم وجود أصحابها، مبررة ذلك بأن الأصل غير مهم. كما زُعم وجود تحريض ضد رئيس الوزراء، الذي اشتكى من مؤامرة تستهدفه.[170][171]
المخاوف والتدابير المضادة
رغم شيوع الصور المزيفة منذ أمد بعيد، كان تزوير الأفلام أكثر تعقيدًا، إلا أن ظهور تقنية التزييف العميق قد زاد من صعوبة تمييز مقاطع الفيديو الحقيقية عن المزيفة.[135] وقد حذر الباحث في مجال الذكاء الاصطناعي أليكس شامباندارد من سرعة إفساد هذه التقنية للأشياء، مؤكدًا أن المشكلة ليست تقنية بقدر ما هي مشكلة تتعلق بالثقة في المعلومات والصحافة.[135] ومن جانبه، أكد أستاذ علوم الحاسوب هاو لي من جامعة جنوب كاليفورنيا أن استخدام التزييف العميق لأغراض ضارة، كالترويج للأخبار الزائفة، سيؤدي إلى عواقب وخيمة إن لم يتم توعية الناس بهذه التقنية.[172] وتوقع لي أن يصبح التمييز بين مقاطع الفيديو الأصلية والمزيفة مستحيلًا خلال نصف عام من أكتوبر 2019، وذلك بسبب التقدم السريع في مجالي الذكاء الاصطناعي والرسومات الحاسوبية.[172] كما وصف شومان غوسيماجومدار، أحد كبار مسؤولي مكافحة الاحتيال في جوجل، تقنية التزييف العميق بأنها مصدر قلق مجتمعي، متوقعًا أن تتطور هذه التقنية لدرجة تمكن أي فرد من إنتاج ملايين مقاطع الفيديو المزيفة تلقائيًا.[173]
المصداقية
إنّ الفشل في التمييز بين الفيديو المزيّف والآخر الحقيقي قد يؤثر بشكلٍ كبيرٍ جدًا على كل الفيديوهات المنشورة على الويب كما سيخلق الكثير من الجدل عندَ نشر كل فيديو حتى لو كانَ صحيحًا. في هذا السياق؛ يقولُ الباحث في الذكاء الاصطناعى أليكس شامباندارد «إنه يجب على كل شخص أن يعرفَ أن المشكلة ليست مشكلة تقنية بقدرِ ما هي مُشكلة ثقة في المعلومات التي تُقدّمها وسائل الإعلام وَالصحافة.» ويُواصل: «المشكلة الأساسية هي أن الإنسانية يمكن أن تقع في عصرٍ لم يعد فيهِ من الممكن تحديد ما إذا كان محتوى صورة أو فيديو ما حقيقيًا أم لا![110]»
التشهير
تُتيح تقنية التزييف العميق إمكانية الإضرار بالكيانات الفردية بشكل بالغ.[174] ذلك أن هذه التقنية غالبًا ما تستهدف فردًا بعينه، أو علاقاته بالآخرين، بهدف نسج سردية قوية بما يكفي لتأثير على الرأي العام أو المعتقدات. ويمكن تحقيق ذلك من خلال ما يُعرف بالتصيد الصوتي بتقنية التزييف العميق، والذي يتلاعب بالصوت لإنتاج مكالمات هاتفية أو محادثات مزيفة.[174] وهناك أسلوب آخر لاستخدام هذه التقنية يتمثل في التعليقات الخاصة المصطنعة، التي تتلاعب بالوسائط لنقل تعليقات ضارة إلى أفراد بعينهم.[174] ولا يشترط أن تكون جودة الفيديو أو الصوت السلبي عالية جدًّا. فما دام بالإمكان التعرف على مظهر شخص ما وأفعاله، فإن تقنية التزييف العميق قد تضر بسمعته.[130]
وفي سبتمبر من عام 2020، أعلنت شركة مايكروسوفت عن عملها على تطوير أداة برمجية للكشف عن تقنية التزييف العميق.[175]
الكشف
الصوت
تُعد مهمة كشف الصوت المزيف مهمة بالغة التعقيد تتطلب تركيزًا شديدًا على إشارات الصوت لتحقيق نتائج مرضية. وقد أثبتت الدراسات أن الاستعانة بالتعلم العميق ومعالجة البيانات الأولية لتصميم الميزات وتقليل الضوضاء يسهم بشكل كبير في رفع كفاءة أنظمة الكشف.[176]
الفيديو
تركز معظم الأبحاث الأكاديمية المتعلقة بالتزييف العميق على اكتشاف المقاطع المرئية المزيفة.[177] ومن الأساليب المتبعة في هذا الصدد استخدام الخوارزميات للتعرف على الأنماط والتقاط التناقضات الدقيقة التي تظهر في تلك المقاطع.[177] فعلى سبيل المثال، طور الباحثون أنظمة آلية تفحص المقاطع المرئية بحثًا عن أخطاء مثل أنماط الوميض غير المنتظمة للإضاءة.[18][178] غير أن هذا النهج واجه انتقادات، إذ يرى بعض الباحثين أن اكتشاف التزييف العميق يشبه "هدفًا متحركًا"، حيث يستمر إنتاج التزييف العميق في التطور والتحسن بالتوازي مع تطور الخوارزميات المستخدمة في اكتشافه.[177]
ولتقييم أكثر الخوارزميات فعالية في اكتشاف التزييف العميق، أطلق تحالف من شركات التكنولوجيا الرائدة تحدي اكتشاف التزييف العميق بهدف تسريع تطوير التكنولوجيا المستخدمة في تحديد المحتوى المتلاعب به.[179] وقد بلغت دقة النموذج الفائز في هذا التحدي 65% على مجموعة اختبار تضمنت 4000 مقطع فيديو.[180] ومن جهة أخرى، أظهرت دراسة أجراها فريق من معهد ماساتشوستس للتكنولوجيا ونشرت في ديسمبر 2021 أن البشر العاديين يتمتعون بدقة تتراوح بين 69% و72% في تحديد عينة عشوائية مكونة من 50 مقطعًا من هذه الفيديوهات.[181]
في شهر أكتوبر 2020، نشر فريق من جامعة بافالو بحثًا علميًا يبيّن تقنيتهم المبتكرة في استغلال انعكاسات الضوء في عيون الأشخاص المصوّرين لفضح التزييف العميق بدقة عالية، حتى دون الحاجة إلى الاعتماد على أدوات الكشف بالذكاء الاصطناعي، على الأقل في الوقت الراهن.[182] أما في حالة الشخصيات البارزة ذات التوثيق الوافي، مثل القادة السياسيين، فقد تم تطوير خوارزميات متخصصة للتمييز بين السمات الهوياتية المميزة لكل فرد، مثل أنماط الحركات الوجهية والإيماءات والصوت، مما يمكن من كشف المزيفين الذين يستخدمون تقنية التزييف العميق.[183]
أجرى فريق بحثي برئاسة الدكتور وائل عبد المجيد في مختبر الرؤية الحاسوبية وتحليل الوسائط المتعددة (VIMAL) بمعهد علوم المعلوماتبجامعة جنوب كاليفورنيا تطويرًا متتاليًا لجيلين [184][185] من الكاشفات المصممة لكشف التزييف العميق في مقاطع الفيديو، وذلك بالاعتماد على الشبكات العصبية التلافيفية. استهدف الجيل الأول من هذه الكاشفات تحديد التناقضات المكانية والزمانية في الفيديوهات المزيفة من خلال الاستعانة بالشبكات العصبية المتكررة، [184] بهدف كشف الشوائب البصرية المتبقية جراء عملية التزييف العميق. وقد حققت هذه الخوارزمية دقة وصلت إلى 96% على مجموعة البيانات الشاملة FaceForensics++، والتي كانت تعتبر المرجع الأساسي في تقييم كفاءة كاشفات التزييف العميق في ذلك الحين.
أما الجيل الثاني من هذه الكاشفات فاستند إلى الشبكات العصبية العميقة الشاملة لتقسيم الشوائب البصرية عن المعلومات الدلالية الوجوهية عالية المستوى.[185] وتم ذلك باستعمال شبكة عصبية ذات شقين: ينقل الشق الأول معلومات اللون، بينما يكبح الشق الآخر محتوى الوجه ويعزز الترددات المنخفضة باستعمال مرشح لابلاس غاوسي. علاوة على ذلك، طُورت دالة خسارة جديدة تهدف إلى تعلم تمثيل مضغوط للوجوه الحقيقية، بينما تعمل على تفريق تمثيلات الفيديوهات المزيفة.
تبين التقنيات الحديثة أن سلسلة الكتل قادرة على مساعدتنا في التأكد من مصدر أي مقطع فيديو أو صورة بصريّة.[186] فقبل نشر أي مقطع فيديو على منصات التواصل الاجتماعي، يمكننا الرجوع إلى سجله الخاص لمعرفة صاحبه الأصيل.[186] وبهذه الطريقة، لا تُقبل إلا المقاطع الفيديوية الصادرة عن مصادر موثوقة، مما يحد من انتشار المقاطع المزيفة الضارة التي تُصنع باستخدام تقنيات الذكاء الاصطناعي.[186]
وقد اقترح بعض الخبراء إضافة نوع من التوقيع الرقمي لكل صورة أو مقطع فيديو يُلتقط بكاميرا، حتى تلك الملحقة بالهواتف الذكية، وذلك لمنع التلاعب بها.[187] وبفضل هذا التوقيع، يمكننا معرفة الشخص الذي قام بتصوير الصورة أو الفيديو، مما يساعدنا في مكافحة نشر المعلومات الزائفة.[187] وللكشف عن المكالمات الفيديوية المزيفة، يمكننا باتباع طريقة بسيطة أن نطلب من محدثنا تحريك رأسه قليلًا، وبهذه الطريقة يمكننا التأكد من أنه شخص حقيقي وليس مجرد صورة متحركة.[188]
الوقاية
يذكر هنري أجدر، العامل في شركة "ديب تريس" المتخصصة في كشف عمليات التزييف العميق، وجود عدة وسائل للوقاية من هذه العمليات في بيئة العمل. من بين هذه الوسائل، استخدام كلمات السر الدلالية أو الأسئلة السرية أثناء إجراء المحادثات الحساسة. كما ينبغي تحديث مصادقة الصوت وغيرها من خصائص الأمان الحيوية بشكل دوري. بالإضافة إلى ذلك، يلعب تثقيف الموظفين حول مخاطر التزييف العميق دورًا حيويًا في مواجهة هذا التهديد.[130]
الجدل
في مارس 2024 عُرض شريط مرئي صادر عن قصر بكنغهام يظهر فيه كاثرين أميرة ويلز وهي تعاني من مرض السرطان وتخضع لعلاج كيميائي. إلا أن هذا الشريط قد أثار جدلًا واسعًا، إذ ادعى البعض أن المرأة الظاهرة فيه ليست سوى صورة مُصنَّعة بالذكاء الاصطناعي.[189] وقد شكك جونثان بيركنز، مدير سباقات جامعة كاليفورنيا في لوس أنجلوس، في صحة إصابتها بالسرطان، وتقدّم بتخمينات مفادها أنها قد تكون في حالة حرجة أو حتى فارقت الحياة.[190]
الانتهاكات
يقول الخبير في علوم الكمبيوتر آرجوير زيتونغ (بالإنجليزية: Aargauer Zeitung) أن التلاعب بالصور ومقاطع الفيديو باستخدام الذكاء الاصطناعي يُمكن أن يصبح ظاهرة جماعية خطيرة. ومع ذلك؛ فإن هذا التخوّف هو نفسه الذي شعرَ به الكل حينما ظهرت للوجود برامج تحرير الفيديووبرامج تحرير الصور.[110] بشكلٍ عام؛ تبقى قُدرة البشر على التمييز بين الفيديو المزوّر والآخر الحقيقي هي العامِل الأهم في التأثير إيجابيًا أم سلبيًا على هذه التقنيّة.[191][192]
أمثلة
باراك أوباما
في 17 أبريل 2018، نشر الممثل الأمريكي جوردان بيل بالتعاون مع موقع بزفيد وشركة مونكي باو برودكشنز مقطع فيديو مزيفًا على منصة يوتيوب، يظهر فيه الرئيس السابق باراك أوباما وهو يوجه إهانات لدونالد ترامب ويطلق عليه ألقابًا مهينة.[194] في هذا المقطع، تم تعديل صوت ووجه بيل ليحاكيا صوت وملامح أوباما بشكل دقيق. كان الهدف من هذا الفيديو تسليط الضوء على العواقب الخطيرة وقوة تأثير المقاطع المزيفة، وكيف يمكنها أن تُظهر أي شخص وهو يقول أي شيء.
دونالد ترامب
في 5 مايو 2019، نشر حساب ديربفيك مقطع فيديو مزيفًا على منصة يوتيوب يظهر فيه دونالد ترامب، مستندًا إلى مشهد كوميدي قدمه جيمي فالون في برنامج برنامج الليلة.[186] في المشهد الأصلي، الذي عُرض في 4 مايو 2016، كان جيمي فالون يرتدي زيًّا يُحاكي دونالد ترامب ويبدو وكأنه يجري مكالمة هاتفية مع باراك أوباما، حيث تحدث بأسلوب يتفاخر فيه بفوزه في الانتخابات التمهيدية بولاية إنديانا.[186] أما في المقطع المزيف، فقد تم تعديل وجه جيمي فالون ليبدو كوجه دونالد ترامب، مع بقاء الصوت دون تغيير. أُنتج هذا الفيديو المزيف من قِبَل ديربفيك بغرض كوميدي. في مارس 2023، انتشرت سلسلة صور تُظهر ضباط شرطة نيويورك وهم يضعون الأصفاد على دونالد ترامب.[195] أُنشئت هذه الصور باستخدام برنامج ميدجورني ونُشرت في البداية عبر تويتر بواسطة ألين هيغينز، لكنها أُعيدت مشاركتها لاحقًا بدون أي سياق، مما دفع بعض المشاهدين إلى الاعتقاد بأنها صور حقيقية.[193]
نانسي بيلوسي
في عام 2019، انتشر مقطع من خطاب نانسي بيلوسي في مركز التقدم الأمريكي (الذي ألقته في 22 مايو 2019) حيث تم إبطاء الفيديو، بالإضافة إلى تغيير درجة الصوت، ليبدو الأمر كما لو كانت في حالة سكر، على نطاق واسع على وسائل التواصل الاجتماعي. يزعم المنتقدون أن هذا لم يكن تزييفًا عميقًا، بل تزييفًا سطحيًا - وهو شكل أقل تعقيدًا من التلاعب بالفيديو.[196][197]
مارك زوكربيرغ
في مايو 2019 تعاون فنانان مع شركة كاني آي في إنتاج مقطع فيديو مزيف لمؤسس منصة فيسبوك، مارك زوكربيرغ، يتحدث فيه عن جمع البيانات والسيطرة عليها من مليارات الأفراد. وقد جاء هذا الفيديو كجزء من معرضٍ هدفه توعية الجمهور بمخاطر الذكاء الاصطناعي.[198][199]
كيم جونغ أون وفلاديمير بوتين
في 29 سبتمبر 2020، حمّلت مجموعة "تمثيلنا" غير الحزبية مقاطع فيديو مزيفة على يوتيوب تصور كيم جونغ أون وفلاديمير بوتين،[200] بهدف التحذير من تدخلهم في الانتخابات الأمريكية وتهديد الديمقراطية.[200][200] رغم توضيح زيف اللقطات، لم تُبث الإعلانات خشية رد فعل الجمهور. وفي 5 يونيو 2023، نشر مصدر مجهول فيديو مزيفًا لبوتين يعلن غزوًا روسيًا وتعبئة عامة عبر شبكات إعلامية.[201]
فولوديمير زيلينسكي
في 16 مارس 2022، انتشر مقطع فيديو مزيف يصور الرئيس الأوكراني فولوديمير زيلينسكي يدعو جنوده للاستسلام خلال الغزو الروسي. روجت له وسائل التواصل الروسية، وحُذف لاحقًا من فيسبوك ويوتيوب، بينما سمح تويتر بنشره مع كشف زيفه.[202] اخترق المتسللون قناة أوكرانيا 24 لإدخال الفيديو والمزاعم الكاذبة بأن زيلينسكي فر من كييف. رد زيلينسكي بفيديو يؤكد صمود بلاده حتى النصر.[203]
وولف نيوز
في أواخر 2022، نشر مروجون مؤيدون للصين مقاطع فيديو مزيفة تحمل شعار "وولف نيوز" باستخدام ممثلين اصطناعيين، تم تطويرهم بتقنية من شركة Synthesia في لندن، التي تسوقها كخيار اقتصادي لمقاطع التدريب والموارد البشرية.[204]
البابا فرانسيس
في شهر مارس 2023 استغل عامل بناء مجهول الهوية من مدينة شيكاغو منصة ميدجورني لتوليد صورة مزيفة للبابا فرنسيس وهو يرتدي سترة منفوخة باللون الأبيض من علامة بالينسياغا. انتشرت هذه الصورة بشكل واسع، وحصدت أكثر من عشرين مليون مشاهدة.[205] وصف الكاتب ريان برودريك هذه الصورة بأنها "أول حالة تضليل حقيقية على مستوى الجماهير باستخدام الذكاء الاصطناعي".[206] وقد وصف الخبراء الذين استشارتهم مجلة سلايت هذه الصورة بأنها "غير متطورة"، مشيرين إلى أنه "كان بإمكان أي شخص أن ينتج صورة مماثلة باستخدام برنامج الفوتوشوب قبل خمس سنوات".[207]
كير ستارمر
في أكتوبر 2023، انتشر مقطع صوتي مزيف يُظهر زعيم حزب العمال البريطانيكير ستارمر وهو يسيء معاملة موظفيه، بالتزامن مع اليوم الأول من مؤتمر الحزب.[208]
راشميكا ماندانا
في مطلع نوفمبر 2023 تعرضت الممثلة الهندية المعروفة، راشميكا ماندانا، إلى عملية تزوير رقمية متقدمة حينما انتشر مقطع فيديو مفبرك على نطاق واسع عبر منصات التواصل الاجتماعي. وقد ظهر في هذا المقطع وجه الممثلة راشميكا وقد تم استبداله بوجه المؤثرة الهندية البريطانية الشهيرة، زارا باتيل. وقد نفت المؤثرة زارا باتيل بشكل قاطع أي علاقة لها بإنتاج هذا المقطع.[209]
بونغ بونغ ماركوس
في أبريل 2024، نُشر فيديو مزيف يُظهر الرئيس الفلبيني بونغ بونغ ماركوس في موقف مغاير للحقيقة. الفيديو هو عرض شرائح مصحوب بتسجيل صوتي مزيف يُنسب إلى ماركوس، حيث يُزعم أنه يأمر القوات المسلحة الفلبينية وقوة المهام الخاصة بالتحرك "كما يقتضي الموقف" في حال تعرضت الفلبين لهجوم من الصين. تم نشر الفيديو في وقت كانت فيه التوترات تتصاعد بسبب النزاع في بحر الصين الجنوبي.[210] وأعلنت دائرة الاتصالات الرئاسية أن الرئيس لم يصدر أي توجيه من هذا القبيل، مشيرة إلى أن جهة أجنبية قد تكون وراء هذا المحتوى المفبرك.[211] كما تم تقديم اتهامات جنائية من قبل "كابيسانان نغ ماي بروكاستر نغ فلبيناس" فيما يتعلق بهذا المحتوى المزيف.[212] في 22 يوليو 2024، تم نشر فيديو يظهر ماركوس وهو يستنشق مواد مخدرة غير قانونية، على يد كلير كونتريراس، وهي من مؤيدي ماركوس السابقين. أُطلق على هذا الفيديو اسم "فيديو البولفرون"، وقد أشار الإعلام إلى تطابقه مع التلميحات التي قدمها سلف ماركوس، رودريغو دوتيرتي، بأن ماركوس مدمن على المخدرات؛ كما تم عرض الفيديو في تجمع "هاكبانغ نغ ماي سوج" الذي نظمته جماعات مؤيدة لدوتيرتي.[213] وبعد يومين، توصلت الشرطة الوطنية الفلبينية والمكتب الوطني للتحقيقات، بناءً على نتائج تحقيقاتهم الخاصة، إلى أن الفيديو تم إنشاؤه باستخدام الذكاء الاصطناعي، وأشاروا إلى وجود تناقضات بين الشخص في الفيديو وماركوس، مثل التفاصيل الخاصة بأذني الشخصين.[214]
جو بايدن
قبل الانتخابات الرئاسية الأمريكية لعام 2024، تم إجراء مكالمات هاتفية باستخدام تقنية تحاكي صوت الرئيس الحالي جو بايدن بهدف ثني الناخبين عن التصويت له. تم اتهام الشخص المسؤول عن هذه المكالمات بممارسة قمع الناخبين وانتحال شخصية المرشح. اقترحت لجنة الاتصالات الفيدرالية فرض غرامة قدرها 6 ملايين دولار أمريكي على الشخص المسؤول، بينما اقترحت فرض غرامة قدرها 2 مليون دولار على شركة "لينغو تليكوم"، الشركة التي يُزعم أنها قامت بنقل المكالمات.[215][216]
الردود
ردود الفعل على الإنترنت
تتخذ منصة تويتر (المعروفة حاليًا باسم X) إجراءات صارمة لمواجهة انتشار الوسائط المزيفة والمعدلة. ومن بين هذه الإجراءات، تقوم تويتر بوضع علامة تحذير على التغريدات التي تحتوي على محتوى مرئي أو صوتي تم التلاعب به أو توليده بواسطة تقنيات التزييف العميق، مما يوضح للمشاهدين طبيعة التلاعب الذي طرأ على هذا المحتوى.[217] كما تظهر إشعارات تحذيرية للمستخدمين قبل التفاعل مع مثل هذه التغريدات، سواء بإعادة نشرها أو الإعجاب بها أو التعليق عليها.[217] بالإضافة إلى ذلك، توفر المنصة رابطًا إضافيًا بجوار التغريدة، يوجه المستخدمين إلى مصادر موثوقة مثل لحظات تويتر أو مقالات إخبارية، مما يساعد على كشف حقيقة هذه الوسائط وتوضيح السياق الصحيح لها.[217] وفي الحالات التي تشكل فيها هذه الوسائط تهديدًا لسلامة المستخدمين، تحتفظ تويتر بحق إزالة التغريدات التي تحتوي عليها.[217] ولتعزيز قدرتها على اكتشاف المحتوى المزيف والمعدل، تدعو تويتر الخبراء والمختصين في هذا المجال إلى التعاون معها من خلال ملء نموذج مخصص، بهدف تطوير حلول تكنولوجية أكثر فعالية لكشف هذه الأنواع من التلاعب بالوسائط.[218]
في شهر أغسطس 2024 قام وزراء ولايات مينيسوتا وبنسلفانيا وواشنطن وميشيغان ونيو مكسيكو بتوجيه رسالة مفتوحة إلى مالك منصة إكس إيلون ماسك يحثونه فيها على إدخال تعديلات على أداة توليد النصوص إلى مقاطع فيديو الجديدة والتي تحمل اسم "جروك"، والتي تم إضافتها إلى المنصة في الشهر ذاته. وقد أشار الوزراء في رسالتهم إلى قيام هذه الأداة بنشر معلومات مضللة حول الانتخابات الرئاسية، الأمر الذي أثار مخاوفهم.[219][220][221]
بذلت منصة فيسبوك مساعٍ حثيثة لتشجيع إنتاج مقاطع فيديو مزيفة، وذلك بغية تطوير أحدث البرامج القادرة على كشف هذه المقاطع المزورة. وقد لعبت فيسبوك دورًا محوريًا في استضافة "تحدي الكشف عن مقاطع الفيديو المزيفة" (DFDC) الذي أُقيم في ديسمبر من عام 2019، حيث شارك فيه 2114 متسابقًا قدموا أكثر من 35 ألف نموذج.[222] وقد تم تحليل أفضل هذه النماذج التي حققت أعلى دقة في كشف أوجه التشابه والاختلاف بين المقاطع الحقيقية والمزيفة؛ وهذه النتائج تمثل مجالات ذات أهمية بالغة في المزيد من الأبحاث الهادفة إلى تحسين وصقل نماذج الكشف عن مقاطع الفيديو المزورة.[222] كما أوضحت منصة فيسبوك أنها ستقوم بإزالة أي وسائط تم إنشاؤها باستخدام تقنيات الذكاء الاصطناعي بهدف تغيير خطاب الفرد.[223] ومع ذلك، فإن الوسائط التي تم تعديلها لتغيير ترتيب أو سياق الكلمات في رسالة معينة ستبقى على المنصة ولكن سيتم تصنيفها على أنها مزيفة، وذلك لأنها لم يتم إنشاؤها بالاعتماد على تقنيات الذكاء الاصطناعي.[223]
في 31 يناير 2018 شرعت منصة جي إف واي كات في إزالة جميع التزييفات العميقة من على منصتها.[224][225] وعلى منصة ريديت حُظرت الصفحة الفرعية المعنية بالتزييف العميق لانتهاكها سياسة المنصة المتعلقة بالإباحية غير الطوعية.[226][227][228][229][230]
وفي الشهر ذاته، صرح ممثلو منصة تويتر بأنهم سيقومون بتعليق الحسابات المشتبه في نشرها لمحتوى مزيف عميق مخالف للشروط.[231] كما اتخذ موقع الدردشة ديسكورد إجراءات صارمة ضد التزييف العميق في الماضي، [232] وأعلن موقفًا واضحًا معارضًا لهذه التقنية.[225][233] وفي سبتمبر من العام نفسه، أضافت شركة جوجل مفهوم "الصور الإباحية الاصطناعية غير الطوعية" إلى قائمة محظوراتها، مما يتيح لأي فرد طلب حظر النتائج التي تعرض صورًا عارية مزيفة له.[234]
أعلنت منصة بورن هاب عن عزمها حظر مقاطع الفيديو المزيفة على موقعها الإلكتروني، معتبرة إياها "محتوى مخالفاً" لما تضمنته شروط الخدمة التي وضعتها المنصة.[235] كما سبق وأن صرحت المنصة لموقع ماسابل بأنها ستقوم بحذف أي محتوى يتم الإبلاغ عنه على أنه مزيف عميق.[236] وقد أشار باحثون من موقع "مذر بورد" إلى أن البحث عن مصطلح "ديبفيكس" على منصة بورنهاب لا يزال يعرض العديد من مقاطع الفيديو المزيفة الحديثة.[235]
أعلنت شركة فيسبوك في وقت سابق أنها لن تقوم بحذف مقاطع الفيديو المزيفة التي يتم إنشاؤها باستخدام تقنيات التزييف العميق من على منصاتها.[237] وبدلًا من ذلك، ستقوم بوضع علامة على هذه المقاطع لتحديدها بأنها مزيفة من قبل جهات خارجية، مما سيؤدي إلى تقليل ظهورها في خلاصات المستخدمين.[238] وقد جاء هذا الرد في يونيو عام 2019، بعد تداول مقطع فيديو مزيف بشكل واسع على منصتي فيسبوك وإنستغرام، يظهر فيه مارك زوكربيرغ في مقطع فيديو قديم يعود إلى عام 2016.[237]
في مايو 2022 عدلت شركة جوجل شروط الخدمة الخاصة بمختبراتها التعاونية "جوبيتر" بشكل رسمي، وحظرت استخدام هذه الخدمة في إنتاج مقاطع الفيديو المزيفة.[239] جاء ذلك بعد مقال في مجلة "فايس" ذكر أن برنامج "ديب فيس لاب" الشهير، الذي يُستخدم لإنتاج مقاطع فيديو مزيفة، كان يُستغل بشكل رئيسي لإنشاء صور إباحية غير توافقية، ويستغل خدمات جوجل التعاونية لهذا الغرض.[240]
التشريعات
برزت ردود فعل تشريعية في الولايات المتحدة لمواجهة التحديات التي تطرحها تقنية التزييف العميق. فقد شهد عام 2018 تقديم مشروع قانون إلى مجلس الشيوخ الأمريكي يقضي بحظر التزييف العميق ذي الأغراض الخبيثة،[241] تلاه في عام 2019 تقديم قانون مساءلة التزييف العميق إلى الكونغرس الأمريكي من قبل عضوة مجلس النواب إيفيت كلارك.[242] وعلى مستوى الولايات، تبنت عدة ولايات تشريعات خاصة بالتزييف العميق، من بينها فرجينيا وتكساس وكاليفورنيا ونيويورك،[243][244] حيث تم تتبع اتهامات متنوعة كسرقة الهوية والمطاردة الإلكترونية والانتقام الإباحي، مع الدعوة إلى تشريعات أكثر شمولية.[234]
ومن أبرز الإنجازات التشريعية في هذا الصدد، توقيع حاكم كاليفورنيا غافن نيوسوم في الثالث من أكتوبر عام 2019 على قانوني الجمعية رقم 602 ورقم 730.[245][246] يمنح القانون الأول للأفراد المستهدفين بمحتوى جنسي مزيف حق مقاضاة منشئي هذا المحتوى،[245] بينما يحظر القانون الثاني توزيع محتوى صوتي أو مرئي مزيف يهدف إلى التأثير على نتائج الانتخابات خلال فترة محددة.[246] وفي محاولة لمواجهة التهديدات التي يشكلها التزييف العميق على الأمن القومي، قدمت عضوة مجلس النواب إيفيت كلارك مشروع قانون مساءلة التزييف العميق إلى الكونغرس الأمريكي في سبتمبر 2023.[247] كما قدمت عضوة أخرى هي ماريا إيلفيرا سالازار مشروع قانون في يناير 2024 يهدف إلى حماية حقوق الملكية الفردية، بما في ذلك الصوت، في ظل تزايد استخدام الذكاء الاصطناعي.[248]
في شهر نوفمبر 2019 أعلنت السلطات الصينية أنه يجب أن تحمل المقاطع المرئية المزيفة وغيرها من المحتويات المصنعة إشعارًا واضحًا يبين زيفها ابتداءً من العام 2020م. وقد أوضحت إدارة الفضاء الإلكتروني الصينية عبر موقعها الإلكتروني أن عدم الامتثال لهذا الإجراء قد يُعَد جريمة.[249] ويبدو أن الحكومة الصينية تحتفظ لنفسها بالحق في مقاضاة كل من المستخدمين ومنصات الفيديو عبر الإنترنت المخالفة لهذه القواعد.[250] وقد أصدرت إدارة الفضاء الإلكتروني الصينية بالاشتراك مع وزارة الصناعة وتكنولوجيا المعلومات ووزارة الأمن العام "الأحكام المتعلقة بإدارة خدمات المعلومات عبر الإنترنت ذات التركيب العميق" في شهر نوفمبر من عام 2022.[251] ودخلت أحكام التركيب العميق المحدثة في الصين (الأحكام الإدارية المتعلقة بالتركيب العميق في خدمات المعلومات القائمة على الإنترنت) حيز التنفيذ في شهر يناير من عام 2023م.[252]
في المملكة المتحدة، يمكن مساءلة منتجي المواد المزيفة العميقة قضائيًا بتهمة التحرش، إلا أن إنتاج مثل هذه المواد لم يكن جنحة محددة بموجب القانون حتى عام 2023،[253] حيث صدر قانون السلامة عبر الإنترنت الذي جرّم صناعة المواد المزيفة العميقة. وتعتزم المملكة المتحدة توسيع نطاق هذا القانون ليشمل تجريم المواد المزيفة العميقة المنتجة "بقصد التسبب في ضائقة" في عام 2024.[254][255]
في كندا، خلال عام 2019، أصدرت وكالة أمن الاتصالات تقريرًا أفاد بأن تقنية التزييف العميق يمكن توظيفها للتدخل في الشأن السياسي الكندي، لا سيما لتشويه سمعة السياسيين والتأثير على توجهات الناخبين.[256][257] وبناءً على ذلك، توجد سبل متعددة يتسنى للمواطنين الكنديين اتباعها للتصدي لمثل هذه التزييفات حال استهدافهم بها.[258] وفي فبراير من عام 2024، قدم البرلمان الكندي في دورته الرابعة والأربعين مشروع القانون رقم C-63، والذي يهدف إلى سن قانون لمكافحة الأضرار الناجمة عن الإنترنت، وذلك بتعديل القوانين الجنائية وقوانين أخرى. وقد تم التخلي عن نسخة سابقة من هذا المشروع، ألا وهي C-36، مع حل البرلمان الكندي في دورته الثالثة والأربعين في سبتمبر من عام 2021.[259][260]
لا توجد في الهند حاليًا تشريعاتٌ صريحةٌ تنظم تقنيات الذكاء الاصطناعي والتزييف العميق بشكل مباشر. ومع ذلك، فإن بعض أحكام القانون الجنائي الهندي وقانون تكنولوجيا المعلومات لسنة 2000/2008 يمكن أن تُستدعى لتقديم حلول قانونية في هذا الصدد. ومن الجدير بالذكر أن مشروع قانون الهند الرقمي الجديد المقترح يتضمن فصلًا خاصًا مخصصًا لتقنيات الذكاء الاصطناعي والتزييف العميق، وذلك وفقًا لما صرح به وزير الدولة راجيف شاندراسيخار.[261]
يتبنى الاتحاد الأوروبي نهجًا قائمًا على تقييم المخاطر في تنظيم أنظمة الذكاء الاصطناعي، وذلك من خلال قانون الذكاء الاصطناعي لعام 2024. يقسم هذا القانون أنظمة الذكاء الاصطناعي إلى فئاتٍ عدة بناءً على مستوى المخاطر التي تشكلها، مثل الفئات ذات المخاطر غير المقبولة والعالية والمحدودة والدنيا. ويهدف هذا التصنيف إلى تحديد الالتزامات التنظيمية التي تقع على عاتق مقدمي ومستخدمي هذه الأنظمة. ومع ذلك، يواجه هذا القانون تحديات في تطبيقه على تقنيات التزييف العميق، وذلك لعدم وجود تعريفات واضحة ومحددة لمفهوم "المخاطر" في سياق هذه التقنيات. فقد أثار فقهاء القانون تساؤلات حول تصنيف أنظمة التزييف العميق المستخدمة في الأغراض السياسية التضليلية أو في إنشاء محتوى بصري حميمي دون موافقة، وحول ما إذا كانت هذه الاستخدامات تستدعي تصنيفها ضمن أنظمة الذكاء الاصطناعي "عالية المخاطر"، مما يستوجب بالتالي تطبيق معايير تنظيمية أكثر صرامة عليها.[262]
في آب (أغسطس) من عام 2024م، شرعت لجنة حماية البيانات الأيرلندية (DPC) في اتخاذ إجراءات قانونية ضد منصة إكس لاستغلالها غير المشروع للبيانات الشخصية لأكثر من ستين مليون مستخدم في الاتحاد الأوروبي والمنطقة الاقتصادية الأوروبية، وذلك بهدف تدريب تقنيات الذكاء الاصطناعي التابعة لها، ومن بينها روبوت الدردشة (غروك).[263]
وكالة داربا
في عام 2016 أطلقت وكالة مشاريع الأبحاث الدفاعية المتقدمة (داربا) برنامج "ميدي فور" الذي استمر حتى عام 2020.[264] وكان الهدف من هذا البرنامج اكتشاف التلاعب الرقمي في الصور ومقاطع الفيديو، بما في ذلك التزييف العميق، بطريقة آلية.[265][266] وفي صيف 2018 نظمت ميدي فور مسابقة لتشجيع الأفراد على ابتكار مقاطع فيديو وصوت وصور تعتمد على الذكاء الاصطناعي، إلى جانب أدوات للكشف عن هذه التزييفات.[267] وقد اقترحت ميدي فور إطارًا ثلاثي الطبقات لتقييم مدى مصداقية الوسائط الرقمية، وذلك بدمج النزاهة الرقمية والمادية والدلالية في مؤشر واحد، بهدف تمكين الكشف الدقيق عن التلاعب بالوسائط.[268]
وفي عام 2019 استضافت داربا "يوم المقترحين" لبرنامج "سيما فور" لتشجيع الباحثين على تطوير حلول لمنع انتشار الوسائط المزيفة التي تعتمد على الذكاء الاصطناعي.[269] كما تعاونت وكالة مشاريع الأبحاث الدفاعية المتقدمة وبرنامج "سيما فور" على تطوير خوارزميات تستند إلى المنطق السليم للكشف عن هذه الوسائط.[269] وبناءً على تقنيات ميدي فور، تستطيع خوارزميات الإسناد في "سيما فور" تحديد مصدر الوسائط الرقمية، بينما تحدد خوارزميات التوصيف الغرض من إنشاء هذه الوسائط أو التلاعب بها.[270] وفي مارس 2024 نشرت "سيما فور" كتالوجًا تحليليًا يوفر للجمهور إمكانية الوصول إلى الموارد مفتوحة المصدر التي طورتها.[271][272]
اللجنة الدولية لبيئة المعلومات
أُنشئت اللجنة الدولية للبيئة المعلوماتية في 2023 كتحالف يضم أكثر من مائتين وخمسين عالِماً يعملون جاهدين على وضع تدابير فعالة لمكافحة التزييف العميق وغيره من المشكلات الناتجة عن التحيزات الخاطئة في المؤسسات التي تنشر المعلومات عبر شبكة الإنترنت.[273]
^Bregler، Christoph؛ Covell، Michele؛ Slaney، Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. ج. 24: 353–360. مؤرشف من الأصل في 2020-05-19. اطلع عليه بتاريخ 2024-11-24 – عبر ACM Digital Library.
^Suwajanakorn، Supasorn؛ Seitz، Steven M.؛ Kemelmacher-Shlizerman، Ira (يوليو 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. ج. 36.4: 95:1–95:13. مؤرشف من الأصل في 2020-05-19. اطلع عليه بتاريخ 2024-11-24 – عبر ACM Digital Library.
^"Full Page Reload". IEEE Spectrum: Technology, Engineering, and Science News. 11 ديسمبر 2019. مؤرشف من الأصل في 2020-06-26. اطلع عليه بتاريخ 2020-02-08.
^ ابTayler، Kelley M.؛ Harris، Laurie A. (8 يونيو 2021). Deep Fakes and National Security (Report). Congressional Research Service. ص. 1. مؤرشف من الأصل في 2022-06-14. اطلع عليه بتاريخ 2021-07-19.
^Limberg، Peter (24 مايو 2020). "Blackmail Inflation". CultState. مؤرشف من الأصل في 2021-01-24. اطلع عليه بتاريخ 2021-01-18.
^"For Kappy". Telegraph. 24 مايو 2020. مؤرشف من الأصل في 2021-01-24. اطلع عليه بتاريخ 2021-01-18.
^ ابجBateman، Jon (2020). "Summary". Deepfakes and Synthetic Media in the Financial System: 1–2. مؤرشف من الأصل في 2021-04-20. اطلع عليه بتاريخ 2020-10-28.