[ad_1]
على الرغم من أن استخدام Deepfakes لا يزال بدائيًا – حيث لا تستطيع نماذج استنساخ الصوت نقل اللهجات السودانية المقنعة – إلا أنه يُستخدم الآن بشكل روتيني في ساحة المعركة البديلة العنيفة، وإن كانت غير دموية، في السودان: وسائل التواصل الاجتماعي.
في أبريل 2024، انتشرت صورة لمبنى مشتعل بالنيران على فيسبوك في السودان. وانتشرت الصورة على نطاق واسع مع تعليقات تزعم أن المبنى جزء من جامعة الجزيرة في مدينة ود مدني، وأن الجيش السوداني هو من قصفه. وكان العديد من القادة السياسيين والشخصيات العامة من بين الذين وقعوا فريسة وتقاسموها.
ومع ذلك، لم تكن هذه حالة معزولة، فمع استمرار الصراع بين جيش البلاد وقوات الدعم السريع شبه العسكرية المتمردة، أصبحت منصات وسائل التواصل الاجتماعي ساحة معركة بديلة حيث يتم استخدام التزييف العميق الناتج عن الذكاء الاصطناعي بسخاء لنشر أخبار مزيفة عن بعضها البعض. وكسب المزيد من المتعاطفين. يشكل هذا الاتجاه تهديدًا خطيرًا في الدولة الواقعة في شمال شرق إفريقيا والتي هي في حاجة ماسة إلى نظام بيئي صحي للمعلومات.
تم استخدام الذكاء الاصطناعي لإنشاء مقاطع فيديو مزيفة خلال الأيام الأولى للحرب المستمرة. وفي أغسطس 2023، تعرفت صحيفة ديلي ميل على مقطع فيديو للسفير الأمريكي في السودان يقول فيه إن أمريكا لديها خطة للحد من نفوذ الإسلام في البلاد.
وفي أكتوبر/تشرين الأول 2023، كشف تحقيق أجرته هيئة الإذاعة البريطانية (بي بي سي) عن حملة استخدمت الذكاء الاصطناعي لانتحال شخصية الزعيم السوداني السابق عمر البشير، والتي حصدت مئات الآلاف من المشاهدات على تيك توك.
في مارس/آذار 2024، شارك حساب X لمقدم برامج تلفزيونية وإذاعية تسجيلا منسوبا إلى قائد القوات المسلحة السودانية يأمر بقتل المدنيين ونشر القناصة واحتلال المباني. تمت مشاهدة هذا التسجيل الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بواسطة 230 ألفًا وشاركه المئات، بما في ذلك السياسيون السودانيون المعروفون.
علاوة على ذلك، في سبتمبر 2023، بدأ بعض السودانيين البارعين في مجال التكنولوجيا وليس لديهم انتماءات سياسية واضحة في استخدام تقنيات التزييف العميق لإنشاء محتوى ساخر. على سبيل المثال، تم إعادة إنتاج الأغنية التي تم نشرها في الأصل لدعم القوات المسلحة السودانية على شكل تزييف عميق، حيث شوهد قائد قوات الدعم السريع، محمد حمدان دقلو (الاسم المستعار حميدتي)، وهو يغني الأغنية مع أحد كبار ضباطه. وقد شوهد آلاف المرات. وفي حين أن المشاهدين لم يفوتوا الهدف الفكاهي للأغنية المعدلة، إلا أنه في حالات أخرى، تحول هذا المحتوى إلى معلومات مضللة.
في مارس 2024، أظهر تسجيل تم إنتاجه بواسطة الذكاء الاصطناعي اجتماعًا سريًا بين قادة ميليشيا الدعم السريع واثنين من قادة تحالف الحرية والتغيير لمناقشة خطة لانقلاب عسكري، في حين أن التسجيل لم يكن حقيقيًا، فقد تمت مشاركته في نفس الشهر. من قبل صحفيين معروفين وحتى التلفزيون الوطني قبل أن تتم إزالته لاحقًا. وقال لي معد التسجيل أبي الصادق، إن التسجيل كان “ساخرا مع حوار ضعيف ومزيف”، وأنه “أراد أن يثبت للجمهور أن صنع مثل هذه التسجيلات المزيفة ليس بالأمر الصعب”.
وأطلق أنصار القوات المسلحة السودانية، كجزء من الحرب النفسية، حملة للتشكيك في التسجيلات الموثقة لحميدتي، زاعمين كذبا أنها كلها من صنع الذكاء الاصطناعي وأنه مات، على الرغم من أن التحليل المستقل كشف، وبثقة عالية، أن هذه التسجيلات دقيقة.
لقد بُذلت العديد من الجهود لمكافحة محتوى المعلومات المضللة العميقة الذي يقع مقره الرئيسي في Beam Reports ومقرها الخرطوم، وهي المنظمة السودانية الوحيدة لتدقيق الحقائق التي تم التحقق منها من قبل المنظمة الدولية لتدقيق الحقائق، والتي تقوم بتدقيق محتوى الحقائق في السودان منذ عام 2023. وقد قامت المنظمة بتتبع التزييف العميق في السودان ونشرت تحليلاً عنه.
“في حين أن هناك استخدامًا لتقنية التزييف العميق على وسائل التواصل الاجتماعي لأغراض مضللة، إلا أنه لا يمكننا القول إن استخدامها زاد بشكل كبير في الأشهر الستة الماضية، وتحديدًا في سياق السودان. ومع ذلك، فمن الملاحظ أنه تم أيضًا إنشاء محتوى صوتي مضلل. وأوضحت Beam Reports، باستخدام الذكاء الاصطناعي ومنسوبة إلى أشخاص نشطين في الشأن السوداني، أن قسم داخل Beam Report المكلف بمراقبة الأخبار المزيفة والتحقق من صحتها، عمل على تقرير تحقق من صحة هذا المحتوى. لي عبر البريد الإلكتروني.
وفي ندوة عبر الإنترنت نظمتها اليونسكو في شهر مايو، شددت شركة Beam Reports على التحديات التي طرحها استخدام الذكاء الاصطناعي في الأشهر الأخيرة.
وقالت اليونسكو في بيان بعد الحدث: “بعد عام من مكافحة المعلومات المضللة عبر الإنترنت، شددت منظمة Beam Reports على أن غياب التقارير الميدانية يؤدي إلى زيادة المعلومات الخاطئة/المضللة”. “ويزداد هذا الأمر تعقيدًا وتعقيدًا بسبب الاستخدام المتزايد للذكاء الاصطناعي التوليدي في إنتاج ونشر المعلومات المضللة وخطاب الكراهية.”
كما أوضح لي مهند البلال، الناشط السوداني المقيم في المملكة المتحدة والذي يقوم طوعًا بالتحقق من صحة المحتوى على وسائل التواصل الاجتماعي، أن الأفراد ذوي المهارات التقنية المتقدمة شاركوا أيضًا للمساعدة في التحقق من صحة المحتوى الذي ينتشر على وسائل التواصل الاجتماعي. “إذا اعتقدت أن مقطعًا ما عبارة عن تزييف عميق، فسأقوم بعكس إطارات البحث عن الصور الخاصة به لمحاولة العثور على تطابق، حيث يتم عادةً إعادة إنتاج هذه التزييفات العميقة باستخدام الذكاء الاصطناعي من قالب، لذلك من المحتمل أن تظهر صور مماثلة. سأبحث عن أي شيء يمكن التعرف عليها في المقطع مثل شعار القناة الإخبارية المزيف المستخدم في التزييف العميق.”
قالت لي شيرين أنلين، خبيرة تكنولوجيا الإعلام في ويتنس، عبر البريد الإلكتروني: “إن أكبر القيود في اكتشاف التزييف العميق هو عدم الوصول إلى أدوات موثوقة”. “على الرغم من إجراء بعض الأبحاث الملهمة في هذا المجال، إلا أنها غالبًا ما تكون بعيدة عن متناول عامة الناس وتتطلب مستوى عالٍ من الخبرة الفنية. وقد يكون من الصعب فهم أدوات الكشف المتاحة للجمهور بسبب الافتقار إلى الشفافية والوضوح في النتائج. وأوضحت أن المستخدمين في حالة من الجهل، خاصة عندما تنتج هذه الأدوات نتائج إيجابية كاذبة، وهو ما تفعله كثيرًا.
“من الناحية الفنية، لا تزال هذه الأدوات تعتمد بشكل كبير على جودة بيانات التدريب وتنوعها. ويخلق هذا الاعتماد تحديات، خاصة فيما يتعلق بالتحيز تجاه أنواع معينة من التلاعب أو الشخصيات أو جودة الملف. في عملنا، لاحظنا وأضافت أن ضغط الملفات ودقتها يلعبان دورًا كبيرًا في دقة الكشف.
يمكن أن تتفاقم مشكلة الأخبار المزيفة التي يولدها الذكاء الاصطناعي في السودان مع تقدم التكنولوجيا.
“حتى الآن، يمكن بسهولة التعرف بسهولة على الكثير من التزييف العميق الناتج عن الذكاء الاصطناعي والمنتشر في البلاد على أنه مزيف بسبب رداءة جودته، وهو ما يمكن أن يعزى إلى نقص البيانات المدربة على اللهجات السودانية”، كما يقول محمد صبري، الباحث السوداني في مجال الذكاء الاصطناعي في جامعة كاليفورنيا. شاركت جامعة مدينة دبلن أفكاره معي. وأضاف أن هذا سيتغير في المستقبل إذا قررت الجهات الخبيثة استثمار المزيد من الوقت والمال للاستفادة من تكنولوجيا الذكاء الاصطناعي المتقدمة لإنتاج محتواها.
وقال محمد: “في اللغات منخفضة الموارد، مثل اللهجات السودانية، تكون نماذج استنساخ الصوت أقل فعالية ويمكن التعرف عليها بسهولة. وتكون النغمة الآلية واضحة تمامًا حتى للمستمعين عديمي الخبرة”. ومع ذلك، “يتم بذل العديد من الجهود لمواجهة تحديات مجموعات البيانات اللغوية منخفضة الموارد. بالإضافة إلى ذلك، فإن قابلية التعميم المثيرة للإعجاب للشبكات العصبية العميقة عند تدريبها على اللهجات والمجالات العربية القريبة جديرة بالملاحظة.”
قم بالتسجيل للحصول على النشرات الإخبارية المجانية AllAfrica
احصل على آخر الأخبار الإفريقية التي يتم تسليمها مباشرة إلى صندوق الوارد الخاص بك
نجاح!
أوشكت على الانتهاء…
نحن بحاجة إلى تأكيد عنوان البريد الإلكتروني الخاص بك.
لإكمال العملية، يرجى اتباع التعليمات الواردة في البريد الإلكتروني الذي أرسلناه إليك للتو.
خطأ!
حدثت مشكلة أثناء معالجة إرسالك. يرجى المحاولة مرة أخرى لاحقا.
في حين أن المحتوى المزيف الذي يمكن أن يحرض على العنف في المناخ السياسي المضطرب في السودان يشكل تهديدًا كبيرًا، إلا أن هناك أيضًا خطر انتشار الكذاب بين السياسيين المحليين.
في يونيو/حزيران 2023، غرد السياسي السوداني مبارك أردول، بأن تسجيله الصوتي لمحادثته الهاتفية مع سياسي آخر شارك في السخرية من قائد الجيش واستعداده لقبول أي عرض من ميليشيا قوات الدعم السريع لم يكن دقيقًا وتم إجراؤه باستخدام برامج الذكاء الاصطناعي. وادعى أن منشئ التسجيل اعتمد على عينات من صوته متاحة على الإنترنت.
ولهذه الظاهرة تأثير سلبي خطير لأنها تخلق بيئة من الشك تدفع المواطنين إلى التشكيك حتى في المعلومات الصحيحة التي ينتجها الذكاء الاصطناعي.
بدأت منصات وسائل التواصل الاجتماعي في اتخاذ إجراءات قوية ضد محتوى Deepfake، لكن كل هذا المحتوى لا يزال متاحًا للوصول إليه، مما يوضح كيف لا يتم تطبيق هذه السياسات في دول مثل السودان ربما بسبب عدم كفاية أو عدم وجود مشرفين على المحتوى يفهمون السياق المحلي.
شارك موقع YouTube معي سياسة التزييف العميق التي تحظر هذا النوع من المعلومات المضللة، وتشدد السياسة على أن “المحتوى الذي تم التلاعب به تقنيًا والذي يضلل المستخدمين وقد يشكل خطرًا جسيمًا بحدوث ضرر فادح غير مسموح به على YouTube”.
علاوة على ذلك، تتطلب السياسة من “المبدعين الكشف عن الوقت الذي يقومون فيه بإنشاء أو تعديل محتوى اصطناعي يكون واقعيًا”، و”سنطبق علامة الشفافية على هذا المحتوى حتى يكون للمشاهدين سياق مهم”.
محمد سليمان باحث وكاتب، حاصل أيضًا على شهادة في الهندسة من جامعة الخرطوم
[ad_2]
المصدر