وتتهم الجماعات الفلسطينية ميتا بالاعتدال غير العادل في التعبير وسط الصراع بين إسرائيل وحماس

وتتهم الجماعات الفلسطينية ميتا بالاعتدال غير العادل في التعبير وسط الصراع بين إسرائيل وحماس

[ad_1]

تدعو العديد من مجموعات المناصرة الفلسطينية الشركة الأم لفيسبوك وإنستغرام وواتساب إلى معالجة مشكلات الإشراف على المحتوى التي طال أمدها والتي يزعمون أنها قيدت بشكل غير عادل التعبير الفلسطيني في أعقاب اندلاع الحرب بين إسرائيل وحماس الشهر الماضي.

تتهم عريضة “ميتا: دع فلسطين تتكلم” عملاق التكنولوجيا بإزالة المحتوى بشكل غير عادل وتعليق أو “حظر الظل” لحسابات الفلسطينيين، في حين فشلت في معالجة “المحتوى التحريضي باللغة العبرية” بشكل مناسب.

وقال نديم ناشف، المدير التنفيذي والمؤسس المشارك لمجموعة الحقوق الرقمية الفلسطينية “حملة” إن الشكاوى حول سياسات تعديل المحتوى في ميتا تعود إلى عدة سنوات. تقود حملة حملة العريضة إلى جانب مجموعة الدفاع عن الحقوق الرقمية الكفاح من أجل المستقبل.

بعد اندلاع أعمال عنف في وقت سابق في مايو 2021 والتي أثارت اتهامات مماثلة بالمعاملة غير العادلة للفلسطينيين على منصات ميتا، كلف عملاق التكنولوجيا بإعداد تقرير مستقل للعناية الواجبة.

ووجد التقرير أن تصرفات ميتا خلال فترة الاضطرابات “يبدو أنه كان لها تأثير سلبي على حقوق الإنسان على حقوق المستخدمين الفلسطينيين في حرية التعبير، وحرية التجمع، والمشاركة السياسية، وعدم التمييز”.

ووافق ميتا على تنفيذ العديد من التوصيات الواردة في التقرير، بما في ذلك تطوير ونشر “مصنفات” لـ “الخطاب العدائي” العبري. وكانت أدوات التصنيف، التي تستخدم التعلم الآلي للكشف عن المحتوى المخالف، موجودة سابقًا للغة العربية ولكن ليس العبرية.

ومع ذلك، في أعقاب الهجوم الذي شنته حركة حماس الفلسطينية على إسرائيل في 7 أكتوبر والغارات الجوية الإسرائيلية اللاحقة والغزو البري لغزة، قال الناشف إن المصنفات العبرية الجديدة في ميتا تبدو غير كافية.

واعترفت شركة Meta بأوجه القصور في أدوات التصنيف العبرية الخاصة بها داخليًا الشهر الماضي، مشيرة إلى أنه لم يتم استخدام المصنفات في تعليقات Instagram لأن الأداة القائمة على التعلم الآلي لم يكن لديها بيانات كافية لتعمل بشكل صحيح، حسبما ذكرت صحيفة وول ستريت جورنال.

كما خفضت شركة التكنولوجيا العملاقة أيضًا عتبة النظام الآلي الذي يخفي التعليقات التي يمكن أن تنتهك سياسات الشركة بشأن الخطاب العدائي من اليقين بنسبة 80 بالمائة إلى 25 بالمائة داخل الأراضي الفلسطينية، وفقًا للمجلة.

يقال إن Meta، التي خفضت الحدود القصوى للعديد من البلدان في جميع أنحاء المنطقة إلى مستويات أقل، سعت إلى معالجة الزيادة في محتوى الكراهية بعد هجوم 7 أكتوبر.

ومع ذلك، قال ناشف إن خفض الحد الأدنى يؤدي إلى “نهج شديد العدوانية للإشراف على المحتوى”، مما يؤدي إلى “الكثير من الإيجابيات الخاطئة” و”إزالة المحتوى الذي لا ينبغي إزالته”.

وبالمثل، أشارت جيليان يورك، مديرة حرية التعبير الدولية في مؤسسة الحرية الإلكترونية (EFF)، إلى أن الصراع الحالي أدى إلى مستويات من المحتوى حول فلسطين وعمليات إزالة المحتوى “غير مسبوقة” من حيث الحجم.

وفي أعقاب ردة الفعل العنيفة الحالية، قالت إن شركات وسائل التواصل الاجتماعي بحاجة إلى أن تكون “أكثر شفافية في كل ما تفعله، وفي كل خطوة على الطريق” عندما يتعلق الأمر بالإشراف على المحتوى.

وقال يورك: “في الأساس، أخبرنا بما تقوم بإزالته وأخبرنا عن سبب قيامك بإزالته، ومن طلب منك إزالته ولماذا”.

وشددت أيضًا على أهمية جعل الإشراف على المحتوى “محددًا ثقافيًا”، مشيرة إلى أن اللغة العربية لغة معقدة ذات لهجات متعددة في العديد من البلدان المختلفة.

قال يورك: “لم تقم شركة ميتا بالعناية الواجبة لضمان أن يكون اعتدالها محددًا ثقافيًا”. “لذا فإن الأشخاص الذين يديرون المحتوى الخاص بفلسطين قد يكونون من المغرب، على سبيل المثال. قد لا يكون لديهم نفس اللهجة، وقد لا يكون لديهم نفس الفهم، وقد لا يكون لديهم نفس الكلمات.

وتابعت: “وهؤلاء هم المشرفون البشريون فقط”. “ثم لديك التعلم الآلي والأتمتة وما إلى ذلك.”

وأشار الناشف إلى أن العديد من المشاكل الأخيرة المتعلقة بكيفية تمثيل الفلسطينيين بواسطة أدوات الذكاء الاصطناعي التي تعمل على منصات ميتا، سلطت الضوء أيضًا على الطريقة التي يمكن أن تؤثر بها التحيزات البشرية على هذه التكنولوجيا.

واضطرت ميتا إلى الاعتذار الشهر الماضي بعد أن أدرجت الترجمة التلقائية على إنستغرام كلمة “إرهابي” في السيرة الذاتية لبعض المستخدمين الفلسطينيين التي تحتوي على عبارة عربية، وتعرض واتساب لانتقادات في وقت سابق من هذا الشهر عندما قامت أداة تعمل بالذكاء الاصطناعي بإنشاء صور تحتوي على أسلحة ردًا على ذلك. عبارات مثل “فلسطيني” أو “فلسطين” أو “فتى مسلم فلسطيني”.

وقال ناشف: “عندما كان الناس يتحدثون مع الشركة، كانوا يقولون: “أوه، هذا خطأ فني” أو “هذا خلل فني”، ولم يكونوا يعالجون المشكلة حقًا”. “من الواضح الآن أن هذا ليس خطأً فنيًا. وهذا مجرد انعكاس للتحيز الموجود هناك.”

وأضاف: “في نهاية المطاف، هذه عملية تعلم آلي”. “هناك مجموعات من البيانات التي يقومون بتغذية الآلة بها، ومن الواضح أنه إذا كانت هذه المجموعات من البيانات متحيزة، فمن الواضح أن النتيجة النهائية ستكون متحيزة.”

وردا على طلب للتعليق، أشارت ميتا إلى بيان صدر في أكتوبر حول جهودها المستمرة للرد على الحرب بين إسرائيل وحماس.

وقالت الشركة في البيان: “سياساتنا مصممة للحفاظ على أمان الأشخاص على تطبيقاتنا مع منح الجميع صوتًا”. وأضاف: “نحن نطبق هذه السياسات بالتساوي في جميع أنحاء العالم، ولا صحة للقول بأننا نتعمد قمع الأصوات”.

حقوق الطبع والنشر لعام 2023 لشركة Nexstar Media Inc. جميع الحقوق محفوظة. لا يجوز نشر هذه المادة أو بثها أو إعادة كتابتها أو إعادة توزيعها.

[ad_2]

المصدر