[ad_1]
على مر التاريخ، أصبح وسم الأشخاص بالموت برقم أو وشم سمة من سمات الأنظمة القمعية. إنها عملية تجريد من الإنسانية وإذلال بيروقراطي، فضلاً عن الكفاءة القاسية.
والآن يحدث هذا للفلسطينيين.
يُمنح الفلسطينيون في غزة درجة من 1 إلى 100 تم إنشاؤها بواسطة الذكاء الاصطناعي، بناءً على مدى احتمالية ارتباطهم بأحد نشطاء حماس. كلما اقتربت نتيجتهم من 100، زادت احتمالية قتلهم. والفرق الرئيسي هو أن معظم الفلسطينيين الذين قُتلوا في الإبادة الجماعية التي ترتكبها إسرائيل بمساعدة الذكاء الاصطناعي لن يعرفوا نتائجهم أبدًا.
يستخدم الجيش الإسرائيلي برنامجًا قائمًا على الذكاء الاصطناعي يسمى “لافندر” لتحديد عشرات الآلاف من الفلسطينيين كأهداف للاغتيال في حرب غزة المستمرة، وفقًا لتحقيق أجرته مجلة +972 و Local Call.
وقد أدى ذلك، إلى جانب قواعد الاشتباك المخففة والحد الأدنى من الإشراف البشري، إلى مقتل الآلاف من المدنيين الفلسطينيين في الغارات الجوية الإسرائيلية طوال فترة الصراع، بما في ذلك عائلات بأكملها – وهو واحد من أسرع معدلات القتل في أي صراع هذا القرن.
“لقد تم تجريد الفلسطينيين من إنسانيتهم وتم تحديد مصيرهم من خلال بعض نقاط البيانات مثل الجنس والعنوان والعمر والنشاط على وسائل التواصل الاجتماعي. كل هذه تشكل “نموذجًا”. باستخدام الذكاء الاصطناعي، يستطيع الجيش الإسرائيلي إنشاء آلاف الأهداف في ثوانٍ”
تقنيات الموت والتجريد من الإنسانية
إن ظهور الثورة الصناعية الرابعة، أو 4IR، يغير كيفية خوض الحروب. التكنولوجيا الجديدة تجلب معها طرقًا جديدة للقتل. شهد التصنيع قبل الحرب العالمية الأولى إنتاجًا ضخمًا للقذائف والمدافع الرشاشة وتطوير الأسلحة الكيميائية.
لقد أدى الابتكار التكنولوجي المقترن بالتصنيع إلى زيادة كفاءة القتل وإبداعه بشكل مستمر.
والآن، تعمل التكنولوجيا الرقمية، والأتمتة، والذكاء الاصطناعي على زيادة احتمالات القتل عن بعد، مثل حرب الطائرات بدون طيار، وتزيد من تجريد الصراع من إنسانيته. يتم تحويل الضحايا إلى ومضات على الشاشة.
وكما لاحظ الفيلسوف الفرنسي جريجوار شامايو، “لا يلطخ المرء أبدًا بدماء الخصم. ولا شك أن غياب أي تلوث جسدي يتوافق مع شعور أقل بالتلوث الأخلاقي…”.
وعند استخدام نظام لافندر الإسرائيلي في غزة، قال أحد المشغلين: “الآلة فعلت ذلك ببرود. وهذا جعل الأمر أسهل”.
كيف تقوم إسرائيل بأتمتة احتلال فلسطين؟
الفصل العنصري الآلي: كيف يتم تشغيل الاحتلال الإسرائيلي بواسطة التكنولوجيا الكبيرة، والذكاء الاصطناعي، وبرامج التجسس
الإنجيل: الذكاء الاصطناعي الإسرائيلي المثير للجدل المستخدم في حرب غزة
غزة كمختبر
في عصر الثورة الصناعية الرابعة، يتم تجريد ضحايا الذكاء الاصطناعي الذين ربما كانوا مجرد ومضات على الشاشة من إنسانيتهم، باعتبارهم مجرد أرقام في جدول بيانات، وهي نتيجة لنموذج التعلم الآلي الذي قرر بناءً على بيانات سابقة أن هذا الشخص، على على أساس الاحتمال، يستحق الموت.
في غزة، يتم اختيار الأهداف بناءً على مئات الآلاف من نقاط البيانات (أو “الميزات”). وتشمل هذه، على سبيل المثال، “التواجد في مجموعة واتساب مع متشدد معروف، وتغيير الهاتف الخليوي كل بضعة أشهر، وتغيير العناوين بشكل متكرر”، وفقًا لـ +972.
لقد تم تجريد الفلسطينيين من إنسانيتهم وتم تحديد مصيرهم من خلال بعض نقاط البيانات مثل الجنس والعنوان والعمر والنشاط على وسائل التواصل الاجتماعي. كل هذه تشكل “نموذجا”. وباستخدام الذكاء الاصطناعي، يستطيع الجيش الإسرائيلي تسجيل آلاف الأهداف في ثوانٍ.
وأدت الحرب الإسرائيلية، وهي واحدة من أكثر الحروب دموية في القرن الحادي والعشرين بالنسبة للمدنيين، إلى مقتل أكثر من 33 ألف فلسطيني. (غيتي)
تدعي إسرائيل أن هذا النموذج يتمتع بدقة تصل إلى 90%، لكن هذا مضلل للغاية. وهي دقيقة بنسبة 90% فقط وفقاً لمن قررت إسرائيل أن تكون هدفاً. 90% لا تشمل الأضرار “الجانبية”.
وذكر المشغلون أنفسهم أنه حتى بالنسبة للمسلحين ذوي الرتب المنخفضة، كان من المقبول مقتل ما بين 15 إلى 20 مدنيًا. إذا قتلت 20 مدنياً مقابل مسلح واحد باستخدام هذا النظام، فإن الدقة تكون 5% فقط.
وإذا تم استقراء هذا العدد ليشمل أكثر من 33,000 من سكان غزة الذين قتلوا منذ 7 أكتوبر/تشرين الأول، فإن هذا يعني أن 31,350 (95%) من المدنيين. وتقول وزارة الصحة في غزة إن أكثر من 70% من القتلى من المرجح أن يكونوا من النساء والأطفال، وليسوا من المسلحين. في الواقع، هذا من شأنه أن يعطي نطاق “دقة” يبلغ حوالي 25%، وليس 90%.
كما اشتهرت إسرائيل بكونها ليبرالية فيما يتعلق بحركة حماس. على سبيل المثال، ادعى الجيش الإسرائيلي في وقت سابق أن 50% من موظفي الأونروا البالغ عددهم 30 ألف موظف هم أقارب من الدرجة الأولى لأحد نشطاء حماس. فهل هذا سيجعلهم أكثر عرضة للقصف؟ إذا أخذت في الاعتبار العلاقات من الدرجة الثانية، فسيكون الجميع تقريبًا مرتبطين بشكل غير مباشر بأحد نشطاء حماس.
“أبلغ المشغلون عن تعرضهم لضغوط للعثور على المزيد من الأهداف، وبالتالي خفض عتبة من يعتبرونه هدفًا صالحًا”
إن الخط الفاصل بين حماس وغير حماس لا يرتكز على العلم، بل على سياسة إسرائيل. في الواقع، أبلغ المشغلون عن تعرضهم لضغوط للعثور على المزيد من الأهداف، وبالتالي خفض عتبة من يعتبرونه هدفًا صالحًا.
وبينما قد تكون درجة 80 من أصل 100 في أحد الأيام كافية لتبرير استهداف شخص ما، فإن الضغط السياسي لقتل المزيد من الفلسطينيين قد يعني خفض النتيجة إلى 70 في اليوم التالي.
كان المشغلون يتصرفون مثل الشركات التي كان قتل الفلسطينيين فيها جزءًا من مؤشرات الأداء الرئيسية (مؤشرات الأداء الرئيسية)، أو في هذه الحالة، قتل المؤشرات الفلسطينية. ولهذا السبب، أبلغ المشغلون كيف أنه عندما فعلوا ذلك، تم إعطاؤهم أشخاصًا مثل مشغلي “الدفاع المدني” لاستهدافهم – الأشخاص الذين قد يساعدون حماس ولكن لا يعرضون الجنود للخطر.
لذلك، في حين أن المشغلين ربما كانوا عنصرًا بشريًا يوافق على الضربات، إلا أنهم كانوا على نحو متزايد يتخذون قرارات تلقائية بالقتل بناءً على الضغط السياسي.
أسطورة الدفاع الحيادي: التجريد المزدوج من الإنسانية
غالبًا ما يكون الدفاع ضد أنظمة الذكاء الاصطناعي هو نفسه، فهو يزيل التحيز البشري. هذا لا يمكن أن يكون أبعد عن الحقيقة. الذكاء الاصطناعي يتعلم من البشر. إذا كان للمجتمع تاريخ من العنصرية أو الطبقية أو التحيز الجنسي، دون سيطرة كافية، فسوف ينعكس ذلك في الناتج. إذا كانت البيانات “سيئة”، فسيكون الناتج سيئًا.
في حالات عدم النزاع، من المعروف أن أنظمة الذكاء الاصطناعي تميز على أساس العرق والجنس والتعليم والخلفية. في المملكة المتحدة، حصل الطلاب المحرومون على درجات أسوأ من الأطفال الأكثر ثراء، وفي الولايات المتحدة، من المرجح أن يقع الأشخاص الملونون ضحايا للشرطة التنبؤية وخوارزميات إصدار الأحكام. في هولندا، اتُهم الناس خطأً بالاحتيال.
إذن، ماذا يحدث عندما يتم تصميم وتدريب نظام الذكاء الاصطناعي من قبل قوة احتلال ودولة فصل عنصري تجرد الفلسطينيين من إنسانيتهم بالفعل؟ تصبح مثل هذه الأسئلة مثيرة للقلق بشكل خاص في ضوء تصريحات رئيس الشاباك السابق عامي أيالون، الذي قال إن معظم الإسرائيليين يعتقدون أن “جميع الفلسطينيين هم حماس أو مؤيدون لحماس”.
لا يمثل استخدام التكنولوجيا تجريدًا من الإنسانية في حد ذاته فحسب، بل إن البيانات التي يتم تغذيتها لهذا النظام تعتمد بالفعل على تفسير غير إنساني للفلسطينيين تراكم على مدى عقود من الاحتلال الإسرائيلي. ومن ثم، تجريد مزدوج من الإنسانية.
ولهذا السبب أيضاً فإن ادعاءات إسرائيل باحترام “التناسب” غير ذات أهمية. وقد يكون وقوع عشرين ضحية من المدنيين مقابل متشدد واحد منخفض المستوى أمراً متناسباً، ولكن فقط إذا تم تجريد الفلسطينيين من إنسانيتهم إلى الحد الذي تصبح فيه حياتهم عديمة القيمة.
وقد تم تهجير جميع سكان غزة البالغ عددهم 2.3 مليون نسمة قسراً بسبب الحرب الإسرائيلية. (غيتي) لا مساءلة
ومن المثير للاهتمام أيضًا أن إسرائيل تحاول تجنب اتخاذ خطوات نحو الاستخدام المسؤول للذكاء الاصطناعي. في العام الماضي، أطلقت الولايات المتحدة إعلانًا سياسيًا بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والحكم الذاتي.
وتنص الاتفاقية على أن التطبيق العسكري للذكاء الاصطناعي يجب أن يلتزم بالقانون الدولي، وخاصة القانون الإنساني، ويجب أن يكون “أخلاقيا ومسؤولا ويعزز الأمن الدولي”.
كما يدعو إلى اتباع نهج مدروس في التعامل مع المخاطر والفوائد، و”يجب أن يقلل أيضًا من التحيز والحوادث غير المقصودة”. ومع ذلك، فإن إسرائيل، إلى جانب روسيا والصين وبعض الدول الأخرى، لم تؤيد هذا الإعلان. وحتى لو أيدت إسرائيل الاتفاق، فهو غير ملزم قانونا.
“لا يمثل استخدام التكنولوجيا تجريدًا من الإنسانية في حد ذاته فحسب، بل إن البيانات التي يتم تغذيتها لهذا النظام تعتمد بالفعل على تفسير غير إنساني للفلسطينيين تراكم على مدى عقود من الاحتلال الإسرائيلي”.
على الرغم من أن الذكاء الاصطناعي يحمل إمكانات كبيرة لإحداث تغيير إيجابي، فمن السهل أن نضيع في السرديات المفرطة وغير النقدية في كثير من الأحيان حول قوته. ولكن من المهم أن نتذكر أن التكنولوجيا ليست جيدة ولا شريرة. سوف يقوم الدكتاتوريون والمستبدون والمجرمون باستخدام التكنولوجيا كسلاح لأي أغراض تناسبهم.
وكما نرى في غزة، ينشر الجيش الإسرائيلي الذكاء الاصطناعي لتسهيل استهدافه للفلسطينيين بكفاءة. ولكن من المؤسف أن هذا يوفر الغطاء الأخلاقي الزائف المتمثل في الموضوعية والحياد لعملية لا تتسم بأي منهما.
ربما تكون هذه أول إبادة جماعية بمساعدة الذكاء الاصطناعي في التاريخ، ولا يحدث ذلك بسبب التكنولوجيا نفسها، ولكن لأن التكنولوجيا تستخدم من قبل دولة تعلمت، لعقود من الزمن، وعلمت بعد ذلك الذكاء الاصطناعي كيفية تجريد الفلسطينيين من إنسانيتهم.
مارك أوين جونز هو أستاذ مساعد في دراسات الشرق الأوسط في جامعة حمد بن خليفة وزميل أول غير مقيم في الديمقراطية في العالم العربي الآن ومجلس الشرق الأوسط للشؤون العالمية.
اتبعه على تويتر: @marcowenjones
[ad_2]
المصدر