[ad_1]
حذر عالم بارز وناشط في مجال الذكاء الاصطناعي من أن شركات التكنولوجيا الكبرى نجحت في صرف انتباه العالم عن الخطر الوجودي الذي لا يزال يشكله الذكاء الاصطناعي على البشرية.
وفي حديثه مع صحيفة الغارديان في قمة الذكاء الاصطناعي في سيول بكوريا الجنوبية، قال ماكس تيجمارك إن التحول في التركيز من انقراض الحياة إلى مفهوم أوسع لسلامة الذكاء الاصطناعي يهدد بتأخير غير مقبول في فرض تنظيم صارم على مبدعي أقوى الذكاء الاصطناعي. البرامج.
قال تيجمارك، الذي تدرب كفيزيائي: “في عام 1942، بنى إنريكو فيرمي أول مفاعل على الإطلاق بتفاعل نووي متسلسل ذاتي الاستدامة تحت ملعب كرة قدم في شيكاغو”. “عندما اكتشف كبار الفيزيائيين في ذلك الوقت ذلك، شعروا بالذعر حقًا، لأنهم أدركوا أن أكبر عقبة متبقية أمام بناء قنبلة نووية قد تم التغلب عليها للتو. لقد أدركوا أن الأمر لم يبق سوى بضع سنوات ــ وفي الواقع، كان الأمر ثلاث سنوات، مع اختبار ترينيتي في عام 1945.
“إن نماذج الذكاء الاصطناعي التي يمكنها اجتياز اختبار تورينج (حيث لا يستطيع شخص ما أن يقول في المحادثة أنه لا يتحدث إلى إنسان آخر) هي نفس التحذير لنوع الذكاء الاصطناعي الذي يمكن أن تفقد السيطرة عليه. ولهذا السبب يشعر أشخاص مثل جيفري هينتون ويوشوا بنجيو – وحتى الكثير من الرؤساء التنفيذيين للتكنولوجيا، على الأقل في السر – بالذعر الآن.
قاد معهد مستقبل الحياة غير الربحي التابع لشركة Tegmark الدعوة في العام الماضي إلى “إيقاف مؤقت” لمدة ستة أشهر في أبحاث الذكاء الاصطناعي المتقدمة على خلفية تلك المخاوف. وقال إن إطلاق نموذج GPT-4 الخاص بشركة OpenAI في مارس/آذار من ذلك العام كان بمثابة مفاجأة في منجم الفحم، وأثبت أن الخطر كان وشيكاً على نحو غير مقبول.
على الرغم من الآلاف من التوقيعات، من الخبراء بما في ذلك هينتون وبينجيو، وهما اثنان من “العرابين” الثلاثة للذكاء الاصطناعي الذين كانوا رائدين في نهج التعلم الآلي الذي يدعم هذا المجال اليوم، لم يتم الاتفاق على أي توقف.
وبدلا من ذلك، قادت قمم الذكاء الاصطناعي، والتي تعد سيول ثاني قممها بعد بلتشلي بارك في المملكة المتحدة في نوفمبر الماضي، المجال الناشئ لتنظيم الذكاء الاصطناعي. “أردنا أن تضفي هذه الرسالة الشرعية على المحادثة، ونحن سعداء للغاية بالطريقة التي تم بها ذلك. بمجرد أن رأى الناس أن الأشخاص مثل بينجيو يشعرون بالقلق، فكروا: “لا بأس بالنسبة لي أن أقلق بشأن ذلك”. حتى الرجل في محطة الوقود قال لي، بعد ذلك، إنه قلق من أن يحل الذكاء الاصطناعي محلنا.
“لكن الآن، نحن بحاجة إلى الانتقال من مجرد الحديث بالحديث إلى السير على الأقدام.”
ولكن منذ الإعلان الأولي عما أصبح فيما بعد قمة بليتشلي بارك، تحول تركيز التنظيم الدولي للذكاء الاصطناعي بعيدا عن المخاطر الوجودية.
في سيول، تناولت مجموعة واحدة فقط من المجموعات “رفيعة المستوى” الثلاث موضوع السلامة بشكل مباشر، ونظرت في “نطاق كامل” من المخاطر، “من انتهاكات الخصوصية إلى اضطرابات سوق العمل والنتائج الكارثية المحتملة”. ويزعم تيجمارك أن التهوين من أشد المخاطر خطورة ليس أمرا صحيا ــ وليس من قبيل الصدفة.
وقال: “هذا بالضبط ما توقعت حدوثه من خلال الضغط الذي تمارسه الصناعة”. “في عام 1955، ظهرت أولى المقالات الصحفية التي تقول إن التدخين يسبب سرطان الرئة، وكنت تعتقد أنه سيتم وضع بعض القواعد التنظيمية بسرعة كبيرة. لكن لا، لقد استغرق الأمر حتى عام 1980، لأنه كان هناك ضغط كبير من جانب الصناعة لتشتيت الانتباه. أشعر أن هذا ما يحدث الآن.
تخطي ترويج النشرة الإخبارية السابقة
قم بالتسجيل في الأعمال اليوم
استعد ليوم العمل – سنوجهك إلى جميع أخبار الأعمال والتحليلات التي تحتاجها كل صباح
إشعار الخصوصية: قد تحتوي النشرات الإخبارية على معلومات حول المؤسسات الخيرية والإعلانات عبر الإنترنت والمحتوى الممول من أطراف خارجية. لمزيد من المعلومات، انظر سياسة الخصوصية الخاصة بنا. نحن نستخدم Google reCaptcha لحماية موقعنا الإلكتروني وتنطبق سياسة خصوصية Google وشروط الخدمة.
بعد الترويج للنشرة الإخبارية
“بالطبع يسبب الذكاء الاصطناعي أضرارا حالية أيضا: هناك تحيز، وهو يضر بالمجموعات المهمشة… ولكن كما قالت (وزيرة العلوم والتكنولوجيا في المملكة المتحدة) ميشيل دونيلان نفسها، ليس الأمر وكأننا لا نستطيع التعامل مع كليهما. إنه يشبه إلى حد ما القول: “دعونا لا نولي أي اهتمام لتغير المناخ لأنه سيكون هناك إعصار هذا العام، لذلك يجب علينا التركيز فقط على الإعصار”.
ساق منتقدو تيجمارك نفس الحجة في ادعاءاته: أن الصناعة تريد من الجميع أن يتحدثوا عن مخاطر افتراضية في المستقبل لصرف الانتباه عن الأضرار الملموسة في الوقت الحاضر، وهو الاتهام الذي يرفضه. “حتى لو فكرت في الأمر على أساس مزاياه الخاصة، فهو أمر يشبه المجرة إلى حد كبير: ستكون لعبة شطرنج رباعية الأبعاد تمامًا لشخص مثل (رئيس OpenAI) سام ألتمان، من أجل تجنب التنظيم، لإخبار الجميع أنه يمكن إطفاء الأنوار من أجلها. الجميع ثم نحاول إقناع الأشخاص مثلنا بدق ناقوس الخطر”.
وبدلاً من ذلك، يرى أن الدعم الصامت من بعض قادة التكنولوجيا يرجع إلى “أعتقد أنهم جميعاً يشعرون أنهم عالقون في موقف مستحيل حيث، حتى لو أرادوا التوقف، فلن يتمكنوا من ذلك. إذا استيقظ أحد المديرين التنفيذيين لشركة تبغ في صباح أحد الأيام وشعر أن ما يفعلونه ليس صحيحًا، فماذا سيحدث؟ سوف يحلون محل الرئيس التنفيذي. لذا فإن الطريقة الوحيدة للحصول على السلامة أولاً هي أن تضع الحكومة معايير السلامة للجميع.
[ad_2]
المصدر