[ad_1]

كانت قمة بليتشلي بارك للذكاء الاصطناعي في عام 2023 بمثابة حدث تاريخي في تنظيم الذكاء الاصطناعي بحكم وجودها ببساطة.

بين إعلان الحدث ويومه الأول، تغيرت المحادثة السائدة من نبرة الحيرة الخفيفة إلى اتفاق عام على أن تنظيم الذكاء الاصطناعي قد يكون يستحق المناقشة.

ومع ذلك، فإن مهمة المتابعة، التي عقدت في مجمع أبحاث على مشارف سيول هذا الأسبوع، أصعب: هل تستطيع المملكة المتحدة وكوريا الجنوبية إظهار أن الحكومات تنتقل من الحديث عن تنظيم الذكاء الاصطناعي إلى تطبيقه فعليا؟

وفي نهاية قمة سيول، كان الإنجاز الكبير الذي كانت المملكة المتحدة تروج له هو إنشاء شبكة عالمية من معاهد سلامة الذكاء الاصطناعي، بناءً على الرواد البريطانيين الذين تم تأسيسهم بعد الاجتماع الأخير.

وأرجعت وزيرة التكنولوجيا، ميشيل دونيلان، المعاهد الجديدة إلى “تأثير بلتشلي” في العمل، وأعلنت عن خطط لقيادة نظام يتقاسم بموجبه المنظمون في الولايات المتحدة وكندا وبريطانيا وفرنسا واليابان وكوريا وأستراليا وسنغافورة والاتحاد الأوروبي. معلومات حول نماذج الذكاء الاصطناعي والأضرار وحوادث السلامة.

وقالت ميشيل دونيلان، وزيرة التكنولوجيا في المملكة المتحدة، إن الشبكة العالمية الناشئة لمعاهد السلامة كانت متوقفة على التقدم الذي تم إحرازه في قمة بلتشلي بارك العام الماضي. تصوير: لي جين مان / ا ف ب

وقال جاك كلارك، المؤسس المشارك ورئيس قسم السياسات في جامعة هارفارد: “قبل عامين، تم إطلاع الحكومات على الذكاء الاصطناعي بشكل شبه كامل من قبل القطاع الخاص والأكاديميين، لكن لم تكن لديها القدرة على تطوير قاعدة الأدلة الخاصة بها”. مختبر الذكاء الاصطناعي الأنثروبي. وفي سيول، “سمعنا من معهد السلامة في المملكة المتحدة: لقد أجروا اختبارات على مجموعة من النماذج، بما في ذلك الطراز الأنثروبي، وحصلوا على نتائج مجهولة المصدر لمجموعة من إساءة الاستخدام. وناقشوا أيضًا كيفية بناء هجمات كسر الحماية الخاصة بهم لكسر أنظمة الأمان في جميع هذه النماذج.

وقال كلارك إن هذا النجاح جعله “أكثر تفاؤلاً إلى حد ما” مما كان عليه في العام الذي سبق بلتشلي. لكن قوة معاهد السلامة الجديدة تقتصر على المراقبة والإبلاغ، مما يعرضها لخطر اضطرارها ببساطة إلى الجلوس والمراقبة بينما تتفشى أضرار الذكاء الاصطناعي. ومع ذلك، يرى كلارك أن “هناك قوة هائلة في إحراج الناس وإحراج الشركات”.

“يمكنك أن تكون معهدًا للسلامة، ويمكنك فقط اختبار النماذج المتاحة للجمهور. وإذا وجدت أشياء غير مريحة حقًا بشأنها، فيمكنك نشر ذلك – تمامًا كما يحدث في الأوساط الأكاديمية اليوم. ما تراه هو أن الشركات تتخذ إجراءات مهمة جدًا ردًا على ذلك. لا أحد يحب أن يكون في المركز الأخير على قائمة المتصدرين.

وقال جاك كلارك، المؤسس المشارك ورئيس قسم السياسات في شركة أنثروبيك، إن معاهد السلامة عديمة الفعالية تتمتع بـ “قوة هائلة” لإحراج الشركات. تصوير: أنتوني والاس/ وكالة الصحافة الفرنسية/ غيتي إيماجز

فحتى فعل المراقبة بحد ذاته يمكن أن يغير الأشياء. على سبيل المثال، وضعت معاهد السلامة في الاتحاد الأوروبي والولايات المتحدة عتبات “الحوسبة”، سعيا إلى تحديد من يقع تحت أنظار معاهد السلامة التابعة لها من خلال مقدار القوة الحاسوبية التي تحشدها لبناء نماذجها “الحدودية”. في المقابل، بدأت تلك العتبات تصبح خطًا فاصلًا صارخًا: من الأفضل أن تكون تحت العتبة بشكل هامشي وتتجنب عبث العمل مع جهة تنظيمية بدلاً من أن تتجاوزها بشكل هامشي وتخلق الكثير من العمل الإضافي، كما قال أحد المؤسسين. وفي الولايات المتحدة، يعد هذا الحد مرتفعاً بالقدر الكافي بحيث لا تتمكن سوى الشركات الأكثر ثراءً من تجاوزه، ولكن الحد الأدنى الذي فرضه الاتحاد الأوروبي وضع مئات الشركات تحت رعاية معهده.

ومع ذلك، قالت كريستينا مونتغمري، كبيرة مسؤولي الخصوصية والثقة في شركة IBM: “حدود الحوسبة لا تزال موجودة، لأنها خط واضح للغاية. ومن الصعب جدًا التوصل إلى ما هي القدرات الأخرى. ولكن هذا سوف يتغير ويتطور بسرعة، ويجب أن يتغير، لأنه في ضوء كل التقنيات الجديدة التي ظهرت حول كيفية ضبط النماذج وتدريبها، لا يهم حجم النموذج. واقترحت بدلاً من ذلك أن تبدأ الحكومات في التركيز على جوانب أخرى من أنظمة الذكاء الاصطناعي، مثل عدد المستخدمين الذين يتعرضون للنموذج.

جادل أندرو إنج، الرئيس السابق لشركة جوجل برين، بأن تطبيقات الذكاء الاصطناعي يجب أن تكون مستهدفة من خلال التنظيم، وليس أنظمة الذكاء الاصطناعي نفسها. تصوير: أنتوني والاس/ وكالة الصحافة الفرنسية/ غيتي إيماجز

كما كشفت قمة سيول عن انقسام أكثر جوهرية: هل ينبغي للتنظيم أن يستهدف الذكاء الاصطناعي على الإطلاق، أم ينبغي له أن يركز فقط على استخدامات تكنولوجيات الذكاء الاصطناعي؟ وقد طرح أندرو إنج، الرئيس السابق لشركة Google Brain، الحجة لصالح الخيار الأخير، مجادلاً بأن تنظيم الذكاء الاصطناعي أمر منطقي بقدر تنظيم “المحركات الكهربائية”: “من الصعب للغاية أن نقول: “كيف نجعل المحرك الكهربائي آمناً؟” دون الحاجة إلى بناء محركات كهربائية صغيرة جدًا».

وقد ردد جانيل بوتوتشيري، وزير الاتصالات والمعلومات والصحة السنغافوري، وجهة نظر إنج. “إلى حد كبير، فإن استخدام الذكاء الاصطناعي اليوم ليس غير منظم. وقال إن الجمهور ليس محميا. “إذا كنت تطبق الذكاء الاصطناعي في قطاع الرعاية الصحية، فيجب استخدام جميع الأدوات التنظيمية لقطاع الرعاية الصحية لمواجهة المخاطر. وإذا تم تطبيقه بعد ذلك في صناعة الطيران، فلدينا بالفعل آلية ومنصة لتنظيم هذه المخاطر.

لكن التركيز على التطبيقات بدلا من أنظمة الذكاء الاصطناعي الأساسية يخاطر بإغفال ما يعتقده البعض باعتباره أكبر قضية تتعلق بسلامة الذكاء الاصطناعي على الإطلاق: فرصة أن يؤدي نظام الذكاء الاصطناعي “الفائق الذكاء” إلى نهاية الحضارة. قارن ماكس تيجمارك، الأستاذ في معهد ماساتشوستس للتكنولوجيا، إطلاق GPT-4 بـ “لحظة فيرمي”، أي إنشاء أول مفاعل نووي، والذي ضمن تقريبًا أن القنبلة الذرية لن تكون بعيدة عن الركب، وقال إن هناك خطرًا مماثلًا من يجب أن تظل أنظمة الذكاء الاصطناعي القوية في مقدمة الأولويات.

دافع دونيلان عن التحول في التركيز. وقالت: “إن إحدى الركائز الأساسية اليوم هي الشمولية، والتي يمكن أن تعني أشياء كثيرة، ولكنها يجب أن تعني أيضًا شمولية جميع المخاطر المحتملة”. “وهذا شيء نحاول تحقيقه باستمرار.”

بالنسبة لكلارك، كان ذلك بمثابة عزاء بارد. وقال: “أود فقط أن أقول إنه كلما حاولت القيام بأشياء أكثر، قل احتمال نجاحك فيها”. “إذا انتهى بك الأمر إلى اتباع نهج حوض المطبخ، فسوف تضعف حقًا القدرة على إنجاز أي شيء.”

[ad_2]

المصدر