[ad_1]
مينلو بارك، كاليفورنيا – توصي لجنة مراجعة شبه مستقلة بأن تقوم شركة ميتا، الشركة الأم لفيسبوك، بإلغاء قرارين اتخذتهما هذا الخريف لإزالة منشورات “تخبر العالم عن المعاناة الإنسانية على كلا الجانبين” في الحرب بين إسرائيل وحماس.
في كلتا الحالتين، انتهى الأمر بشركة ميتا إلى إعادة المنشورات – واحدة تظهر ضحايا فلسطينيين والأخرى، رهينة إسرائيلية – من تلقاء نفسها، على الرغم من أنها أضافت شاشات تحذير لكليهما بسبب المحتوى العنيف. وهذا يعني أن الشركة ليست ملزمة بفعل أي شيء بشأن قرار مجلس الإدارة.
ومع ذلك، قال مجلس الإدارة أيضًا إنه لا يتفق مع قرار ميتا بمنع المنشورات المعنية من التوصية بها من قبل فيسبوك وإنستغرام، “حتى في الحالات التي حددت فيها منشورات تهدف إلى رفع مستوى الوعي”. وقالت إن استخدام ميتا للأدوات الآلية لإزالة المحتوى “الذي يحتمل أن يكون ضارًا” زاد من احتمال إزالة “المشاركات القيمة” التي لا ترفع مستوى الوعي حول الصراع فحسب، بل قد تحتوي على أدلة على انتهاكات حقوق الإنسان. وحثت الشركة على الحفاظ على هذا المحتوى.
أصدر مجلس الرقابة، الذي أنشأته شركة ميتا قبل ثلاث سنوات، قراراته يوم الثلاثاء فيما قال إنه أول حكم “معجل” له – واستغرق 12 يوما بدلا من 90 يوما المعتادة.
وقال المجلس إنه في إحدى الحالات، أزال إنستغرام مقطع فيديو يظهر ما يبدو أنه آثار غارة على مستشفى الشفاء أو بالقرب منه في مدينة غزة. ويظهر في المنشور فلسطينيين، بينهم أطفال، أصيبوا أو قتلوا. قامت أنظمة ميتا الآلية بإزالة المنشور قائلة إنه ينتهك قواعدها ضد “المحتوى العنيف والمصور”. وبينما تراجعت Meta عن قرارها في النهاية، قال مجلس الإدارة، إنها وضعت شاشة تحذير على المنشور وخفضت رتبته، مما يعني أنه لم يوصى به للمستخدمين وشاهده عدد أقل من الأشخاص. وقال مجلس الإدارة إنه لا يتفق مع قرار خفض ترتيب الفيديو.
وتتعلق الحالة الأخرى بمقطع فيديو تم نشره على فيسبوك لامرأة إسرائيلية تتوسل إلى خاطفيها ألا يقتلوها أثناء احتجازها كرهينة خلال غارات حماس على إسرائيل في 7 أكتوبر.
استأنف المستخدمون قرار ميتا بإزالة المنشورات وتم تحويل القضايا إلى مجلس الرقابة. وقال المجلس إنه شهد زيادة بمقدار ثلاثة أضعاف تقريبًا في المتوسط اليومي للطلبات التي حددها المستخدمون على أنها تتعلق بمنطقة الشرق الأوسط وشمال إفريقيا في الأسابيع التي تلت 7 أكتوبر.
وقالت ميتا إنها ترحب بقرار مجلس الإدارة.
“إن التعبير والسلامة مهمان بالنسبة لنا وللأشخاص الذين يستخدمون خدماتنا. ألغى مجلس الإدارة قرار Meta الأصلي بإزالة هذا المحتوى ولكنه وافق على القرار اللاحق لاستعادة المحتوى مع شاشة تحذير. وقالت الشركة في بيان لها: “لقد أعادت Meta هذا المحتوى سابقًا، لذلك لن يتم اتخاذ أي إجراء آخر بشأنه”. “لن تكون هناك تحديثات أخرى لهذه القضية، حيث لم يقدم مجلس الإدارة أي توصيات كجزء من قراره.”
وفي إحاطة حول هذه الحالات، قال مجلس الإدارة إن شركة ميتا أكدت أنها خفضت مؤقتًا الحدود القصوى للأدوات الآلية لاكتشاف المحتوى الذي يحتمل أن ينتهك وإزالته.
وقال مجلس الرقابة في بيان: “بينما يقلل من مخاطر المحتوى الضار، فإنه يزيد أيضًا من احتمال إزالة المحتوى القيم وغير المخالف عن طريق الخطأ من منصاته”، مضيفًا أنه اعتبارًا من 11 ديسمبر، لم تقم ميتا باستعادة العتبات. إلى ما قبل أكتوبر. 7 مستويات.
أطلقت شركة Meta، التي كانت تسمى آنذاك Facebook، مجلس الرقابة في عام 2020 ردًا على الانتقادات بأنها لا تتحرك بالسرعة الكافية لإزالة المعلومات الخاطئة وخطاب الكراهية وحملات التأثير من منصاتها. وتضم 22 عضوًا، وهي مجموعة متعددة الجنسيات تضم علماء قانون وخبراء في مجال حقوق الإنسان وصحفيين.
إن أحكام مجلس الإدارة، كما هو الحال في هاتين الحالتين، ملزمة ولكن نتائج السياسة الأوسع نطاقًا هي استشارية وشركة Meta ليست ملزمة بمتابعتها.
[ad_2]
المصدر