[ad_1]

فهل المخاوف الأخلاقية بشأن التطور المحموم للذكاء الاصطناعي في غير محلها؟ لا شك أن الإجابات المختلفة على هذا السؤال يمكن أن تأتي من جهات مختلفة.

ولكن ما لا يمكن إنكاره هو أن هذا السؤال لا يمكن أن يتجاهله صناع السياسات ذوو العقول الجدية.

لقد أصبحت مسألة مركزية للتنمية، بل ومسألة تتعلق بمستقبل البشرية.

على سبيل المثال، دعا البابا فرانسيس إلى معاهدة عالمية لتنظيم الذكاء الاصطناعي في بيان يربط بين التكنولوجيا والسلام. ما يقترحه البابا هو اتفاق سيكون ملزما لجميع الدول.

وفي البيان الصاخب والواضح، الذي صدر للاحتفال باليوم العالمي للسلام للكنيسة الكاثوليكية في الأول من كانون الثاني/يناير، قال البابا من بين أمور أخرى: “إن النطاق العالمي للذكاء الاصطناعي يوضح أنه، إلى جانب مسؤولية الدول ذات السيادة في تنظيم استخدامه، وعلى الصعيد الداخلي، يمكن للمنظمات الدولية أن تلعب دورًا حاسمًا في التوصل إلى اتفاقيات متعددة الأطراف وتنسيق تطبيقها وتنفيذها.

وحذر البابا من الاستبدال المتهور للقيم الإنسانية بالخوارزميات، مما يشكل تهديدا كارثيا للوجود الإنساني. ووفقا للبابا، فإن الاستسلام الظاهري للآلة يمكن أن يؤدي إلى “ديكتاتورية تكنولوجية”.

بالمناسبة، في الأسابيع القليلة الماضية، أعلنت شركات التكنولوجيا عن التقدم في تطبيق تقنياتها. وتشمل هذه الاكتشافات التي قامت بها شركة OpenAI. وفي الوقت نفسه تقريبًا، أطلقت شركة Alphabet (GOOGL.O) المالكة لشركة Google نموذجًا جديدًا للذكاء الاصطناعي يسمى Gemini للتنافس مع OpenAI.

لذا فإن دعوة الفاتيكان إلى توخي الحذر جاءت في الوقت المناسب من كافة النواحي.

خشية أن يتم رفض بيان البابا في الأول من كانون الثاني (يناير) باعتباره عداءًا دينيًا للعلم والتقدم التكنولوجي، تجدر الإشارة إلى أنه تم التعبير عن وجهات نظر مماثلة بنبرة مختلفة حتى من قبل قدامى المحاربين في وادي السليكون والمفكرين والعلماء العلمانيين في جميع أنحاء العالم.

والواقع أن القلق التكنولوجي الأخلاقي الذي يشعر به البابا تشاطره حكومات الدول الرأسمالية المتقدمة.

إن التحدي الذي نواجهه الآن هو كيفية حل التقلصات الجدلية بين الوعد الهائل للتكنولوجيا من ناحية ومخاطرها الهائلة من ناحية أخرى. ماذا سيحدث إذا ترك تطوير التكنولوجيا دون حراسة؟ والسؤال هو أين يمكن تطبيق هذه الفجوة على التآكل الهائل للبشرية مع تطبيق تكنولوجيا قادرة على الرد على الاستفسارات وإجراء محادثات ذكية مثل البشر ويمكنها كتابة كود الكمبيوتر الخاص بها.

ماذا حدث لحرية الإنسان في الاختيار؟

وفي سياق هذا القلق العالمي بشأن الاتجاهات الكبرى في التكنولوجيا، تم التوصل مؤخرًا إلى اتفاق مؤقت، ولكن ملحوظ، من قبل الاتحاد الأوروبي بشأن تنظيم استخدام الذكاء الاصطناعي (AI). وتغطي الصفقة مسائل مثل الأنظمة القائمة على الذكاء الاصطناعي وChatGPT والمراقبة البيومترية.

يمكن أن يكون تأثير التكنولوجيا في مختلف جوانب الحياة – الاجتماعية والسياسية والاقتصادية – هائلاً اعتمادًا على حالة البلدان المختلفة.

وكما تمت الإشارة في هذه الصفحة يوم الأربعاء الماضي، فقد تم تصنيف تغير المناخ والذكاء الاصطناعي على أنهما أهم قصتين لعام 2023 من قبل بعض النقاد العلميين. عند وضع التوقعات لعام 2024، هناك مخاوف من أن يلعب الذكاء الاصطناعي أدوارًا تخريبية في الانتخابات المهمة التي يشارك فيها حوالي 3.5 مليار شخص في البلدان التي تمارس الديمقراطية الليبرالية. هذا هو ما يقرب من نصف البشرية. نحن هنا نتحدث عن الانتخابات في الهند والولايات المتحدة، وربما في المملكة المتحدة والاتحاد الأوروبي وغيرها. وقد تم توثيق الدور السلبي للمعلومات المضللة وتداول مقاطع الفيديو المزيفة على الإنترنت في الانتخابات. ومع الذكاء الاصطناعي، يمكن أن تحدث أشياء أسوأ في الانتخابات المقبلة. قد يصبح تطبيق التكنولوجيا في الانتخابات أقل صعوبة مع تطور الذكاء الاصطناعي.

في الواقع، يجب فحص دور التكنولوجيا في انتخابات 2023 بشكل نقدي بما يتجاوز الشيطنة الحزبية لرئيس اللجنة الانتخابية المستقلة، البروفيسور محمود ياكوبو.

لا تزال درجة تطبيق التكنولوجيا موضع نقاش في بعض الديمقراطيات الليبرالية بسبب الخطر الذي ينطوي عليه الأمر.

يتم التعبير عن مخاوف مشروعة من قبل العلماء في مجالات مختلفة تتراوح بين الاقتصاد والعلوم السياسية وعلم النفس والفلسفة والفنون وعلم الأعصاب وما إلى ذلك بشأن الأتمتة المفرطة وزيادة المراقبة وكذلك فقدان الخصوصية مع جمع البيانات المفرط. وقد لوحظ أنه بدلاً من ضمان الإدماج الاجتماعي، تم العثور على التكنولوجيات الرقمية مسؤولة عن تقويض الديمقراطية وتعميق عدم المساواة. ووصف الباحث يانيس فاروفاكيس أنشطة عمالقة التكنولوجيا في كتاب جديد بعنوان “الإقطاع التقني: ما قتل الرأسمالية”. التربح من البيانات المجمعة من خلال استغلال خصوصية المشتركين أطلق عليه بعض النقاد اسم “القنانة”.

ردًا على هذا الاتجاه، حذر أحد الباحثين من أنه لا ينبغي الوثوق بالذكاء الاصطناعي حتى يكون هناك ضمان كافٍ بشأن الشفافية المطلوبة لاعتماده في أي مكان. إن تحقيق التوازن بين الإنسانية والتكنولوجيا في صياغة السياسات هو عمل الحكومة بشكل مباشر. إنها ليست مسألة ينبغي تركها لعمالقة التكنولوجيا أو الشركات الناشئة. إنها مهمة المنظمين. ومن الخطر على المصلحة المجتمعية أن تقاوم الشركات التنظيم بشكل أعمى في هذا الشأن. وينبغي وضع التشريعات بحزم لضمان السيطرة عليها.

قم بالتسجيل للحصول على النشرات الإخبارية المجانية AllAfrica

احصل على آخر الأخبار الإفريقية التي يتم تسليمها مباشرة إلى صندوق الوارد الخاص بك

نجاح!

تقريبا انتهيت…

نحن نحتاج إلى تأكيد عنوان بريدك الإلكتروني.

لإكمال العملية، يرجى اتباع التعليمات الواردة في البريد الإلكتروني الذي أرسلناه إليك للتو.

خطأ!

حدثت مشكلة أثناء معالجة إرسالك. الرجاء معاودة المحاولة في وقت لاحق.

في ميزانية 2024، تم اقتراح 28 مليار نيرة لوزارة الاتصالات والاقتصاد الرقمي. من هذا الرقم فقط 7.5 مليار نيرة مخصصة للنفقات الرأسمالية بينما 20.9 مليار نيرة مخصصة للنفقات المتكررة. في جدول أعمال الرئيس بولا تينوبو، تم تخصيص قسم لـ “الاقتصاد الرقمي: الاستفادة من الثورة الصناعية الرابعة”. ويجسد البيان وعداً بخلق مليون فرصة عمل في غضون 24 شهراً من خلال توفير البيئة اللازمة لدعم التكنولوجيات الجديدة التي يمكنها “تسريع نمو الأعمال وتنويعها”. ويتضمن البيان أيضًا خططًا لبناء قدرات الشباب وبناء البنية التحتية وتعزيز التجارة الإلكترونية. ومن العناصر الأخرى في جدول الأعمال تطوير النطاق العريض الوطني واعتماد استراتيجية وطنية لتقنية البلوكشين.

ومع ذلك، فإن هذه ليست سياسة واضحة حتى الآن لمواجهة التحديات التي يفرضها التطور غير المقيد للذكاء الاصطناعي. ومن الصين إلى أميركا، تعمل الحكومات على صياغة السياسات اللازمة لمواجهة هذا التحدي.

إن أهمية المخاوف التي أعربت عنها منظمة العفو الدولية هي أن نيجيريا يجب أن توضح سياستها الواضحة بشأن الذكاء الاصطناعي لحماية الاقتصاد والنظام السياسي والمجتمع. وهذا أمر يجب على صناع القرار أن يفكروا فيه أثناء تنفيذ أجندة الإدارة.

[ad_2]

المصدر