"التأسيسية" وباباوات بالنسياغا: تاريخ موجز للتزييف العميق

“التأسيسية” وباباوات بالنسياغا: تاريخ موجز للتزييف العميق

[ad_1]

دائمًا ما يكون القلق بشأن وسائل الإعلام التي تم التلاعب بها أو التلاعب بها مرتفعًا في الدورات الانتخابية، لكن عام 2024 سيكون مختلفًا لسببين: التزييف العميق الناتج عن الذكاء الاصطناعي والعدد الهائل من استطلاعات الرأي.

يشير مصطلح التزييف العميق إلى خدعة تستخدم الذكاء الاصطناعي لإنشاء صورة زائفة، وهي في أغلب الأحيان مقاطع فيديو مزيفة لأشخاص، وغالبًا ما يتضاعف التأثير بواسطة مكون صوتي. وإذا أضفنا إلى ذلك حقيقة مفادها أن نحو نصف سكان العالم يعقدون انتخابات مهمة هذا العام ــ بما في ذلك الهند والولايات المتحدة والاتحاد الأوروبي، وعلى الأرجح المملكة المتحدة ــ فإن هناك احتمالاً لأن تكون هذه التكنولوجيا مدمرة للغاية.

فيما يلي دليل لبعض أكثر عمليات التزييف العميق فعالية في السنوات الأخيرة، بما في ذلك المحاولات الأولى لإنشاء صور خادعة.

صورة من مدونة Google التي تسمى Inceptionism. الصورة: موزة GoogleDeepDream 2015

الموز حيث بدأ كل شيء. في عام 2015، نشرت جوجل تدوينة حول ما أسمته “النشأة”، لكنها سرعان ما أصبحت تعرف باسم “الحلم العميق”. وفي هذا المقال، طرح مهندسو فريق الصور التابع للشركة سؤالاً بسيطًا بما فيه الكفاية: ماذا يحدث إذا أخذت أنظمة الذكاء الاصطناعي التي طورتها جوجل لتصنيف الصور – المعروفة بالشبكات العصبية – وطلبت منهم إنشاء صور بدلاً من ذلك؟

كتب الفريق: “الشبكات العصبية التي تم تدريبها للتمييز بين أنواع مختلفة من الصور لديها قدر كبير من المعلومات اللازمة لإنشاء الصور أيضًا”. لم تكن مشاهد الأحلام الهلوسة الناتجة عالية الدقة، لكنها أظهرت الوعد الذي ينطوي عليه هذا النهج.

تبديل وجوه المشاهير 2017

يعد إنشاء الصور بالكامل من الصفر أمرًا صعبًا. لكن استخدام الذكاء الاصطناعي لإجراء تغييرات على الصور ومقاطع الفيديو الموجودة مسبقًا يعد أسهل قليلاً. في عام 2017، كانت التكنولوجيا في طليعة التطورات المطلقة، وتتطلب جهاز كمبيوتر قويًا، وكمًا كبيرًا من الصور للتعلم منها، والوقت والوسائل اللازمة لإتقان الأدوات التي لم تكن سهلة الاستخدام.

لكن هناك حالة استخدام واحدة تقع ضمن هذه الحدود: تحويل وجوه المشاهير الإناث إلى مواد إباحية. بحلول أواخر عام 2017، تم إنتاج مثل هذه المقاطع الصريحة وتداولها، بمعدل ملحوظ، في البداية على موقع ريديت، وبعد ذلك، مع انتشار الكلمات وتزايد الغضب، في منتديات أكثر ظلامًا وخفية.

في هذه الأيام، وفقًا لمذكرة موجزة من مركز الأبحاث Labor Together: “واحدة من كل ثلاث أدوات للتزييف العميق تسمح للمستخدمين بإنشاء مواد إباحية للتزييف العميق في أقل من 25 دقيقة، وبدون أي تكلفة”.

فيديو مزيف لأوباما من صنع جوردان بيل تصوير: جوردان بيلجوردان بيل/فيديو أوباما 2018

وفي المقدمة كانت المواد الإباحية، تليها بقية وسائل الإعلام، وفي منتصف عام 2018، تحسنت أدوات تبديل الوجه إلى الحد الذي يمكن استخدامه كأداة إبداعية في حد ذاتها. أحد مقاطع الفيديو هذه، التي أنشأتها BuzzFeed، شهد الممثل والمخرج جوردان بيل وهو يصنع انطباعًا عن باراك أوباما – حيث تم استبداله بلقطات فعلية للرئيس نفسه، وانتهى بدعوة إلى “البقاء مستيقظًا، أيتها العاهرات”.

كراسي على شكل ثمرة الأفوكادو تم إنشاؤها بواسطة Dall-E. الصورة: Dall-E/TwitterDall-E كرسي الأفوكادو بذراعين 2021

في عام 2021، أصدرت OpenAI Dall-E، وأصبح تبديل الوجه خبرًا قديمًا. أول منشئ رئيسي للصور، Dall-E قدم وعدًا من الخيال العلمي بكتابة عبارة وإخراج صورة. من المؤكد أن تلك الصور لم تكن جيدة بشكل خاص، لكنها كانت صورًا لم تكن موجودة من قبل – ولم تكن مجرد نسخ معدلة من الصور السابقة، ولكنها أشياء جديدة تمامًا.

لم يكن الإصدار الأول من Dall-E رائعًا في التصوير الواقعي، حيث أظهر الاختيار التجريبي لـ OpenAI مجموعة صور واقعية غامضة، وعددًا من الصور لقطط بدون حدقة بشكل مخيف. لكن بالنسبة للفن التشكيلي، مثل هذا الكرسي بذراعين، فقد أظهر بالفعل نتائج واعدة.

Deepfake يظهر زيلينسكي من مارس 2022 الصورة: .زيلينسكي يأمر فريقه بالاستسلام 2022/2023

في غضون شهر من الغزو الروسي لأوكرانيا، ظهر فيديو مزيف عميق للرئيس فولوديمير زيلينسكي يدعو جنوده إلى إلقاء أسلحتهم والعودة إلى عائلاتهم. كانت الجودة رديئة، لكنها دفعت الرئيس الأوكراني الحقيقي للرد على حسابه على موقع إنستغرام، وطلب من الجنود الروس العودة إلى ديارهم بدلاً من ذلك.

ولكن بعد ذلك عاد زيلينسكي المزيف بعد عام وأكد مدى تحسن التكنولوجيا. حث هذا المقطع الجنود الأوكرانيين على الاستسلام مرة أخرى وكان أكثر إقناعًا.

وقالت NewsGuard، وهي منظمة تتعقب المعلومات الخاطئة، إن مقارنة مقطعي الفيديو تظهر مدى تقدم التكنولوجيا في فترة زمنية قصيرة.

وقال ماكنزي صادقي، محرر الذكاء الاصطناعي والتأثير الأجنبي في NewsGuard، إن مقطع نوفمبر 2023 يمثل قفزة كبيرة في تكنولوجيا التزييف العميق منذ اندلاع الحرب الروسية الأوكرانية في فبراير 2022، وهو ما يمثل كيف أصبح المحتوى الذي تم التلاعب به أكثر إقناعًا مع تقدم التكنولوجيا. “

وقال صادقي إن حركات التزييف العميق لعام 2023 هي “سلسة وطبيعية” وأن حركات فمه تتطابق مع الكلمات المنطوقة بشكل أوثق.

صورة تم إنشاؤها بواسطة الذكاء الاصطناعي للبابا فرانسيس وهو يرتدي سترة مبطنة. الصورة: رديتالبابا يرتدي سترة مبطنة 2023

كانت صورة البابا فرانسيس وهو يرتدي سترة مبطنة من ماركة Balenciaga بمثابة لحظة تاريخية في الذكاء الاصطناعي التوليدي والتزييف العميق. تم إنشاؤه بواسطة أداة صنع الصور Midjourney، وسرعان ما انتشر على نطاق واسع بسبب مستواه المذهل من الواقعية.

يقول هاني فريد، الأستاذ بجامعة كاليفورنيا، بيركلي، والمتخصص في اكتشاف التزييف العميق: “لقد أظهرت لنا صورة البابا ما يستطيع الذكاء الاصطناعي التوليدي فعله وأظهرت لنا مدى سرعة انتشار هذا المحتوى عبر الإنترنت”.

وفي حين تمت مشاركة صورة البابا بسبب مزيجها من الواقعية والعبثية، إلا أنها سلطت الضوء على القوة الإبداعية لأنظمة الذكاء الاصطناعي التي يمكن الوصول إليها الآن على نطاق واسع.

صورة ترامب والناخبين السود المتداولة على وسائل التواصل الاجتماعي اعتبارًا من مارس 2024. الصورة: @Trump_History45Trump مع الناخبين السود 2024

ظهرت هذا العام صورة مزيفة لدونالد ترامب مع مجموعة من الرجال السود على عتبة الباب. هناك أيضًا صورة لترامب وهو يقف مع مجموعة من النساء السود. ويعد الرئيس السابق، الذي سيواجه جو بايدن في الانتخابات الرئاسية لعام 2024، موضوعًا شائعًا للتزييف العميق – كما هو الحال مع خصمه.

يقول فريد: “إن صورة ترامب مع أنصاره من السود توضح لنا كيف يمكن أن يتم تلويث السجل المرئي بصور مزيفة”.

وفي إحدى المدونات التي تجمع الصور المزيفة السياسية، يقول فريد إن الصورة تبدو وكأنها “محاولة لجذب الناخبين السود”. يعرب فريد عن قلقه العام من أن التزييف العميق “سيُستخدم كسلاح في السياسة” هذا العام.

لقطة شاشة من مقطع فيديو مزيف لجو بايدن يتحدث عن كييف. الصورة: GuardtechJoe بايدن robocalls 2024

هناك أمثلة عديدة على استخدام صورة الرئيس الأمريكي وصوته بطريقة تلاعبية. في يناير/كانون الثاني، تم استخدام صوت بايدن المزيف لتشجيع الديمقراطيين على عدم التصويت في الانتخابات التمهيدية في نيو هامبشاير، حتى أنه تم استخدام عبارة شبيهة بكلمات بايدن مثل “يا لها من مجموعة من المالاركي”. واعترف ستيف كرامر، الناشط السياسي، بأنه كان وراء المكالمات المزيفة. كان كرامر يعمل لدى منافس بايدن، دين فيليبس، الذي جرب أنصاره تقنية الذكاء الاصطناعي من خلال إنشاء روبوت صوتي قصير العمر من فيليبس. وقالت حملة فيليبس إن المنافس لا علاقة له بالمكالمة. وقال كرامر إنه فعل ذلك للإشارة إلى مخاطر الذكاء الاصطناعي في الانتخابات.

[ad_2]

المصدر