hulu

يثير الذكاء الاصطناعي المتطور مخاوف بشأن المخاطر التي تهدد البشرية. هل يقوم القادة التقنيون والسياسيون بما يكفي؟

[ad_1]

لندن ــ أذهلت روبوتات الدردشة مثل ChatGPT العالم بقدرتها على كتابة الخطابات، أو التخطيط للإجازات، أو إجراء محادثة بنفس جودة البشر أو حتى أفضل منهم، وذلك بفضل أنظمة الذكاء الاصطناعي المتطورة. الآن، أصبح الذكاء الاصطناعي الحدودي أحدث الكلمات الطنانة مع تزايد المخاوف من أن التكنولوجيا الناشئة لديها قدرات يمكن أن تعرض البشرية للخطر.

الجميع، من الحكومة البريطانية إلى كبار الباحثين وحتى شركات الذكاء الاصطناعي الكبرى نفسها، يدقون ناقوس الخطر بشأن مخاطر الذكاء الاصطناعي الحدودي غير المعروفة حتى الآن، ويدعون إلى وضع ضمانات لحماية الناس من تهديداته الوجودية.

ويصل النقاش إلى ذروته يوم الأربعاء، عندما يستضيف رئيس الوزراء البريطاني ريشي سوناك قمة تستمر يومين تركز على الذكاء الاصطناعي الحدودي. ويقال إنه من المتوقع أن يجذب مجموعة من حوالي 100 مسؤول من 28 دولة، بما في ذلك نائبة الرئيس الأمريكي كامالا هاريس، ورئيسة المفوضية الأوروبية أورسولا فون دير لاين والمديرين التنفيذيين من شركات الذكاء الاصطناعي الأمريكية الرئيسية بما في ذلك OpenAI و Deepmind من Google و Anthropic.

المكان هو بليتشلي بارك، وهو قاعدة سرية للغاية سابقة لفك الشفرات في الحرب العالمية الثانية بقيادة آلان تورينج. يُنظر إلى هذا العقار التاريخي على أنه مسقط رأس الحوسبة الحديثة لأنه المكان الذي تمكن فيه فريق تورينج من فك شفرة إنجما الألمانية النازية باستخدام أول كمبيوتر رقمي قابل للبرمجة في العالم.

وفي خطاب ألقاه الأسبوع الماضي، قال سوناك إن الحكومات فقط – وليس شركات الذكاء الاصطناعي – هي التي يمكنها حماية الناس من مخاطر التكنولوجيا. ومع ذلك، أشار أيضًا إلى أن نهج المملكة المتحدة “لا يتمثل في التسرع في التنظيم”، حتى عندما أوجز مجموعة من التهديدات التي تبدو مخيفة، مثل استخدام الذكاء الاصطناعي لصنع أسلحة كيميائية أو بيولوجية بسهولة أكبر.

وقال جيف كلون، أستاذ علوم الكمبيوتر المساعد في جامعة كولومبيا البريطانية الذي يركز على الذكاء الاصطناعي والتعلم الآلي: “علينا أن نأخذ هذا الأمر على محمل الجد، وعلينا أن نبدأ في التركيز على محاولة استباق المشكلة”.

كان كلون من بين مجموعة من الباحثين المؤثرين الذين كتبوا ورقة بحثية الأسبوع الماضي تدعو الحكومات إلى بذل المزيد من الجهد لإدارة المخاطر الناجمة عن الذكاء الاصطناعي. إنها الأحدث في سلسلة من التحذيرات الرهيبة من أباطرة التكنولوجيا مثل Elon Musk والرئيس التنفيذي لشركة OpenAI Sam Altman حول التكنولوجيا سريعة التطور والطرق المتباينة التي ترى بها الصناعة والقادة السياسيون والباحثون الطريق إلى الأمام عندما يتعلق الأمر بكبح جماح المخاطر والتنظيم. .

وقال كلون إنه ليس من المؤكد على الإطلاق أن الذكاء الاصطناعي سوف يمحو البشرية، “ولكن هناك ما يكفي من المخاطر وفرصة حدوثها. ونحن بحاجة إلى حشد انتباه المجتمع لمحاولة حل المشكلة الآن بدلاً من انتظار حدوث السيناريو الأسوأ.

أحد الأهداف الكبرى لسوناك هو التوصل إلى اتفاق بشأن بيان حول طبيعة مخاطر الذكاء الاصطناعي. كما أنه يكشف النقاب عن خطط لإنشاء معهد سلامة الذكاء الاصطناعي الذي سيقوم بتقييم واختبار أنواع جديدة من التكنولوجيا ويقترح إنشاء لجنة خبراء عالمية، مستوحاة من لجنة تغير المناخ التابعة للأمم المتحدة، لفهم الذكاء الاصطناعي ووضع تقرير “حالة علوم الذكاء الاصطناعي”. .

وتعكس القمة حرص الحكومة البريطانية على استضافة تجمعات دولية لإظهار أنها لم تصبح معزولة وما زال بإمكانها القيادة على الساحة العالمية بعد خروجها من الاتحاد الأوروبي قبل ثلاث سنوات.

تريد المملكة المتحدة أيضًا أن تراهن على مطالبتها في قضية سياسية ساخنة حيث تتخذ كل من الولايات المتحدة والاتحاد الأوروبي المكون من 27 دولة خطوات.

تضع بروكسل اللمسات الأخيرة على ما من شأنه أن يكون أول لوائح شاملة للذكاء الاصطناعي في العالم، بينما وقع الرئيس الأمريكي جو بايدن أمراً تنفيذياً شاملاً يوم الاثنين لتوجيه تطوير الذكاء الاصطناعي، بناءً على الالتزامات الطوعية التي تعهدت بها شركات التكنولوجيا.

وقد تمت دعوة الصين، التي تعد إلى جانب الولايات المتحدة واحدة من القوتين العالميتين في مجال الذكاء الاصطناعي، لحضور القمة، على الرغم من أن سوناك لم يتمكن من القول “بيقين بنسبة 100٪” أن ممثلين من بكين سيحضرون.

دعت الورقة التي وقعها كلون وأكثر من 20 خبيرًا آخر، بما في ذلك اثنان يطلق عليهما لقب “الأب الروحي” للذكاء الاصطناعي – جيفري هينتون ويوشوا بينجيو – الحكومات وشركات الذكاء الاصطناعي إلى اتخاذ إجراءات ملموسة، مثل إنفاق ثلث أبحاثها وتطويرها. موارد حول ضمان الاستخدام الآمن والأخلاقي للذكاء الاصطناعي المستقل المتقدم.

يعد Frontier AI اختصارًا لأحدث وأقوى الأنظمة التي تصل إلى أقصى حدود قدرات الذكاء الاصطناعي. إنها تعتمد على نماذج أساسية، وهي عبارة عن خوارزميات تم تدريبها على نطاق واسع من المعلومات المأخوذة من الإنترنت لتوفير قاعدة عامة من المعرفة، ولكنها ليست معصومة من الخطأ.

وقال كلون إن هذا يجعل أنظمة الذكاء الاصطناعي الحدودية “خطيرة لأنها لا تتمتع بالمعرفة الكاملة”. “يفترض الناس ويعتقدون أنهم على دراية كبيرة، وهذا يمكن أن يوقعك في المشاكل.”

ومع ذلك، واجه الاجتماع انتقادات بأنه منشغل للغاية بالمخاطر البعيدة.

وقالت فرانسين بينيت، المديرة المؤقتة لمعهد أدا لوفليس، وهي مجموعة أبحاث سياسية في لندن تركز على الذكاء الاصطناعي: “إن تركيز القمة في الواقع ضيق للغاية بعض الشيء”.

وقالت في لجنة تشاتام هاوس الأسبوع الماضي: “إننا نجازف بنسيان المجموعة الأوسع من المخاطر والسلامة” والخوارزميات التي أصبحت بالفعل جزءًا من الحياة اليومية.

وأشار ديب راجي، الباحث بجامعة كاليفورنيا في بيركلي، الذي درس التحيز الخوارزمي، إلى مشاكل في الأنظمة المنتشرة بالفعل في المملكة المتحدة، مثل أنظمة التعرف على الوجه التابعة للشرطة والتي كان لديها معدل اكتشاف كاذب أعلى بكثير للأشخاص السود، وخوارزمية فاشلة امتحان المدرسة الثانوية.

تعتبر القمة “فرصة ضائعة” وتهمش المجتمعات والعمال الأكثر تأثراً بالذكاء الاصطناعي، حسبما قال أكثر من 100 مجموعة من المجتمع المدني وخبراء في رسالة مفتوحة إلى سوناك.

يقول المتشككون إن حكومة المملكة المتحدة حددت أهداف القمة الخاصة بها منخفضة للغاية، نظرا لأن تنظيم الذكاء الاصطناعي لن يكون على جدول الأعمال، مع التركيز بدلا من ذلك على إنشاء “حواجز الحماية”.

وقال راجي إن دعوة سوناك لعدم التسرع في التنظيم تذكرنا “بالرسائل التي نسمعها من الكثير من ممثلي الشركات في الولايات المتحدة”. “ولذلك فأنا لست مندهشًا من أنها تشق طريقها أيضًا إلى ما قد يقولونه للمسؤولين في المملكة المتحدة.”

وقال راجي إنه لا ينبغي لشركات التكنولوجيا أن تشارك في صياغة اللوائح لأنها تميل إلى “التقليل أو التقليل من أهمية” مدى خطورة الأضرار ونطاقها الكامل. وقالت إنهم أيضًا ليسوا منفتحين جدًا لدعم القوانين المقترحة “التي قد تكون ضرورية ولكنها قد تعرض أرباحهم النهائية للخطر”.

ولم يستجب DeepMind وOpenAI لطلبات التعليق. وقالت أنثروبيك إن المؤسسين المشاركين داريو أمودي وجاك كلارك سيحضران.

وقالت مايكروسوفت في تدوينة إنها تتطلع “إلى الخطوات التالية التي ستتخذها المملكة المتحدة في عقد القمة، وتعزيز جهودها في اختبار سلامة الذكاء الاصطناعي، ودعم تعاون دولي أكبر في إدارة الذكاء الاصطناعي”.

وتصر الحكومة على أنها ستحظى بالمزيج المناسب من الحضور من الحكومة والأوساط الأكاديمية والمجتمع المدني وقطاع الأعمال.

وقال معهد أبحاث السياسة العامة، وهو مركز أبحاث بريطاني من يسار الوسط، إنه سيكون “خطأ تاريخيا” إذا تركت صناعة التكنولوجيا لتنظيم نفسها دون إشراف حكومي.

وقال كارستن يونج، كبير الاقتصاديين في المجموعة: “المنظمون والجمهور لا يعرفون إلى حد كبير كيفية نشر الذكاء الاصطناعي في جميع أنحاء الاقتصاد”. “لكن التنظيم الذاتي لم ينجح بالنسبة لشركات وسائل التواصل الاجتماعي، ولم ينجح بالنسبة لقطاع التمويل، ولن ينجح بالنسبة للذكاء الاصطناعي”.

___

ساهمت الكاتبة في وكالة أسوشيتد برس جيل لوليس في إعداد هذا التقرير.

[ad_2]

المصدر