"الوقت ينفد": هل يمكن تجنب مستقبل التزييف العميق غير القابل للاكتشاف؟

“الوقت ينفد”: هل يمكن تجنب مستقبل التزييف العميق غير القابل للاكتشاف؟

[ad_1]

مع أكثر من 4000 مشاركة، و20000 تعليق، و100000 تفاعل على فيسبوك، انتشرت صورة المرأة المسنة، وهي تجلس خلف كعكة عيد ميلادها الـ122 محلية الصنع، بسرعة كبيرة. يقول التعليق: “لقد بدأت في تزيين الكعك منذ أن كنت في الخامسة من عمري، ولا أستطيع الانتظار حتى أطور رحلتي في الخبز.”

الصورة مزيفة أيضًا بلا شك. إذا كانت الشموع الغريبة – التي يبدو المرء أنها تطفو في الهواء، وغير متصلة بأي شيء – أو النقط الغريبة غير المتبلورة على الكعكة في المقدمة لم تكشف عنها، فإن حقيقة أن المحتفل سيكون أكبر شخص في العالم تقريبًا ينبغي خمس سنوات.

ولحسن الحظ، فإن المخاطر التي تواجه مصممي الكعك المعمرين الفيروسيين منخفضة. وهذا أمر جيد، نظرًا لأن الذكاء الاصطناعي التوليدي يصبح أفضل وأفضل، فإن أيام البحث عن علامات كاشفة لاكتشاف المنتجات المزيفة قد انتهت تقريبًا. وهذا أدى إلى سباق مع الزمن: هل يمكننا إيجاد طرق أخرى لاكتشاف المنتجات المزيفة، قبل أن يصبح من الصعب تمييزها عن الواقع؟

قال مايك سبيرز، من كلية استشارات الذكاء الاصطناعي، حيث يقود عمل الشركة في مجال مكافحة المعلومات المضللة: “لم يعد أمامنا الوقت الكافي حتى نتمكن من إجراء الكشف اليدوي”. “إن النماذج تتطور بسرعة وإيقاع لا يصدق من وجهة نظر فنية ومثير للقلق للغاية.

“هناك جميع أنواع التقنيات اليدوية لاكتشاف الصور المزيفة، بدءًا من الكلمات التي بها أخطاء إملائية، وحتى البشرة الناعمة أو المتجعدة بشكل غير متناسب. الأيدي كلاسيكية، ومن ثم العيون هي أيضًا علامة جيدة جدًا. لكن حتى اليوم، يستغرق الأمر وقتًا طويلاً: إنه ليس شيئًا يمكنك توسيع نطاقه حقًا. والوقت ينفد – والنماذج تتحسن أكثر فأكثر”.

منذ عام 2021، أصدر منشئ الصور في OpenAI، Dall-E، ثلاثة إصدارات، كل منها أكثر قدرة بشكل جذري من سابقتها. أصدر المنافس المستقل Midjourney ستة إصدارات في نفس الفترة، في حين وصل نموذج Stable Diffusion المجاني والمفتوح المصدر إلى نسخته الثالثة، وانضمت شركة Gemini من Google إلى الشجار. وبما أن التكنولوجيا أصبحت أكثر قوة، فقد أصبح استخدامها أسهل أيضًا. تم دمج أحدث إصدار من Dall-E في ChatGPT وBing، بينما تقدم Google أدواتها الخاصة مجانًا للمستخدمين.

بدأت شركات التكنولوجيا في الاستجابة للطوفان القادم من الوسائط المولدة. وقد أنتج التحالف من أجل مصدر المحتوى وأصالته، والذي يضم بين أعضائه هيئة الإذاعة البريطانية (بي بي سي)، وجوجل، ومايكروسوفت، وسوني، معايير لوضع العلامات المائية ووضع العلامات، وفي فبراير/شباط أعلنت شركة OpenAI أنها ستعتمدها في Dall-E 3. والآن، أصبحت الصور التي تم إنشاؤها بواسطة تحتوي الأداة على ملصق مرئي وعلامة مائية يمكن قراءتها آليًا. في نهاية التوزيع، بدأت Meta في إضافة تصنيفاتها الخاصة إلى المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وتقول إنها ستزيل المنشورات التي لم يتم تصنيفها.

قد تساعد هذه السياسات في معالجة بعض أشكال المعلومات الخاطئة الأكثر انتشارًا، مثل النكات أو الهجاء الذي ينتشر خارج سياقه الأصلي. لكن يمكنهم أيضًا خلق شعور زائف بالأمان، كما يقول سبايرز. “إذا اعتاد الجمهور على رؤية الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مع علامة مائية عليها، فهل هذا يعني أنهم يثقون ضمنيًا في أي صورة بدون علامة مائية؟”

وهذه مشكلة، لأن وضع العلامات ليس عالميًا بأي حال من الأحوال – ومن غير المرجح أن يكون كذلك. قد توافق الشركات الكبرى مثل OpenAI على تصنيف إبداعاتها، لكن الشركات الناشئة مثل Midjourney لا تملك القدرة على تخصيص وقت هندسي إضافي لحل هذه المشكلة. وبالنسبة للمشاريع “مفتوحة المصدر”، مثل Stable Diffusion، فمن المستحيل فرض العلامة المائية ليتم تطبيقها، نظرًا لأنه دائمًا خيار “تفرع” التكنولوجيا وبناء التكنولوجيا الخاصة بك.

ويقول هنري باركر، رئيس الشؤون الحكومية في مجموعة التحقق من الحقائق Logically، إن رؤية العلامة المائية ليس بالضرورة أن يكون لها التأثير الذي يريده المرء. يقول باركر إن الشركة تستخدم الأساليب اليدوية والآلية لفحص المحتوى، لكن وضع العلامات لا يمكن أن يصل إلى أبعد من ذلك. “إذا أخبرت شخصًا ما أنه يشاهد مقطعًا مزيفًا قبل أن يشاهده، فإن علم النفس الاجتماعي لمشاهدة هذا الفيديو قوي جدًا لدرجة أنه سيظل يشير إليه كما لو كان حقيقة. لذا فإن الشيء الوحيد الذي يمكنك فعله هو أن تسأل كيف يمكننا تقليل مقدار الوقت الذي يتم فيه تداول هذا المحتوى؟

في نهاية المطاف، سيتطلب ذلك العثور على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وإزالته تلقائيًا. لكن هذا صعب، كما يقول باركر. “لقد حاولنا هذا الأمر لمدة خمس سنوات، ونحن صادقون تمامًا بشأن حقيقة أننا وصلنا إلى حوالي 70%، من حيث الدقة التي يمكننا تحقيقها.” على المدى القصير، تتمثل المشكلة في سباق تسلح بين الكشف والإبداع: فحتى مولدات الصور التي ليس لديها نية خبيثة سترغب في محاولة التغلب على أجهزة الكشف لأن الهدف النهائي هو إنشاء شيء حقيقي مثل الصورة.

تخطي ترويج النشرة الإخبارية السابقة

يغوص Alex Hern الأسبوعي في كيفية تشكيل التكنولوجيا لحياتنا

إشعار الخصوصية: قد تحتوي النشرات الإخبارية على معلومات حول المؤسسات الخيرية والإعلانات عبر الإنترنت والمحتوى الممول من أطراف خارجية. لمزيد من المعلومات، انظر سياسة الخصوصية الخاصة بنا. نحن نستخدم Google reCaptcha لحماية موقعنا الإلكتروني وتنطبق سياسة خصوصية Google وشروط الخدمة.

يعتقد باركر منطقيًا أن الإجابة هي النظر حول الصورة، ويقول: “كيف تحاول فعليًا النظر إلى الطريقة التي يتصرف بها ممثلو المعلومات المضللة؟” وهذا يعني مراقبة المحادثات حول الويب للقبض على المجرمين في مرحلة التخطيط على مواقع مثل 4chan وReddit، ومراقبة السلوك الضخم للحسابات المشبوهة التي تم اختيارها من قبل جهة حكومية. وحتى في تلك الحالة، تظل مشكلة الإيجابيات الكاذبة صعبة. “هل أنظر إلى الحملة التي تديرها روسيا؟ أم أنني أشاهد مجموعة من معجبي تايلور سويفت يشاركون معلومات حول تذاكر الحفل؟”

والبعض الآخر أكثر تفاؤلاً. يعتقد بن كولمان، الرئيس التنفيذي لشركة Reality Defender الناشئة للكشف عن الصور، أنه ستكون هناك دائمًا إمكانية الكشف، حتى لو كان الاستنتاج هو ببساطة وضع علامة على شيء ما على أنه ربما يكون مزيفًا بدلاً من التوصل إلى نتيجة نهائية. يمكن أن تكون هذه العلامات أي شيء بدءًا من “مرشح ذي ترددات أعلى يشير إلى قدر كبير جدًا من السلاسة” إلى الفشل في جعل ما هو غير مرئي، ولكن قابل للاكتشاف، يظهره الجميع في كل مرة تنبض فيها قلوبهم بدماء جديدة حول وجوههم.

ويختتم كولمان حديثه قائلاً: “ستستمر الأمور في التقدم على الجانب الوهمي، لكن الجانب الحقيقي لن يتغير”. “نحن نعتقد أننا سوف نقترب من نموذج واحد أكثر خضرة.”

التكنولوجيا، بطبيعة الحال، ليست سوى جزء من الحل. إذا كان الناس يصدقون حقًا أن صورة امرأة تبلغ من العمر 122 عامًا مع كعكة خبزتها بنفسها هي صورة حقيقية، فلن يتطلب الأمر استخدام أحدث مولدات الصور لخداعهم للاعتقاد بأشياء أخرى أكثر ضررًا. . لكنها البداية.

انضم إلى Alex Hern في حدث Guardian Live عبر الإنترنت حول الذكاء الاصطناعي والتزييف العميق والانتخابات، يوم الأربعاء 24 أبريل الساعة 8 مساءً بتوقيت جرينتش. حجز التذاكر هنا

[ad_2]

المصدر