[ad_1]
“إن حكم الذكاء الاصطناعي محكوم عليه بالفشل.” هذه السخرية المنشورة على X جاءت من Yann LeCun، مدير أبحاث الذكاء الاصطناعي (AI) في Meta (Facebook، Instagram). كان المتفائل بالذكاء الاصطناعي يسخر من التعليقات الأخيرة التي أدلى بها نيك بوستروم، أحد الشخصيات في معسكر مثيري الذعر بشأن الذكاء الاصطناعي – الذين يُطلق عليهم غالبًا “المهزومون” أو الكارثون – والمعروف بكتابه “الذكاء الفائق” الصادر عام 2017، والذي تكهن فيه بمخاطر الذكاء الاصطناعي. الذي من شأنه أن يعرض الإنسانية للخطر.
“إذا قمت فقط بتخطيط التغيير في الموقف العام وموقف صانعي السياسات، (…) إذا استمر ذلك في الحدوث في العام المقبل والعام الذي يليه والعام الذي يليه، فسنكون هناك إلى حد كبير كنوع من الاستقرار الدائم”. “حظر الذكاء الاصطناعي، وأعتقد أن ذلك قد يكون سيئًا للغاية”، قال الفيلسوف السويدي قلقًا في بث صوتي. يرى LeCun أن هذا بمثابة منعطف، حيث ساعد Bostrom في تعميم فكرة “الخطر الوجودي” الذي يشكله الذكاء الاصطناعي بين عامة الناس ورجال الأعمال مثل Elon Musk وSam Altman، الرئيس التنفيذي لشركة OpenAI، مبتكر ChatGPT، الذي تم فصله من منصبه 17 نوفمبر ثم أعيد إلى شركته بعد خمسة أيام.
قراءة المزيد مقالة محفوظة لدى nos abonnés OpenAI: بدايات دراما سام ألتمان
إن قضية سام ألتمان تمثل هزيمة للتيارات الفكرية التي ادعىها أعضاء مجلس إدارة شركة OpenAI الذين حاولوا الإطاحة به: التوجه طويل المدى (الذي يهدف إلى تجنب المخاطر الوجودية التي تهدد الإنسانية، بما في ذلك الذكاء الاصطناعي) والإيثار الفعال، الذي انبثقت عنه (التي تهدف إلى تجنب المخاطر الوجودية للإنسانية، بما في ذلك الذكاء الاصطناعي) والذي يهدف إلى ترشيد أثر تبرعات الفرد قدر الإمكان). وكتبت صحيفة وول ستريت جورنال: “أظهر طرد سام ألتمان تأثير الإيثار الفعال ووجهة نظره القائلة بأن تطوير الذكاء الاصطناعي يجب أن يتباطأ. وقد شكلت عودته حدوده”. لقد خسر منتقدو الذكاء الاصطناعي المعركة، هذا ما اتفق عليه المحلل الإعلامي والتكنولوجي بنديكت إيفانز في مقال افتتاحي لصحيفة فايننشال تايمز.
هزيمة الإيثار الفعال
وكتب ستيفن بينكر، الأستاذ بجامعة هارفارد: “كنت من محبي الإيثار الفعال (…) لكنه أصبح ثقافيا. يسعدني التبرع لإنقاذ أكبر عدد من الأرواح في أفريقيا، ولكن ليس دفع أموال للتقنيين للقلق بشأن تحويل الذكاء الاصطناعي لنا إلى مشبك ورق”. X في إشارة إلى الفرضية التي صاغها بوستروم، بأن الذكاء الاصطناعي المتخصص في إنشاء دبابيس ورق يمكن أن يقتل البشرية عن طريق استخدام جميع موارد الأرض أو عن طريق مهاجمة البشر إذا عارضوا مهمتها.
“(هناك) تحول مكثف في الأجواء”، هكذا غردت نيريت فايس بلات، مؤلفة كتاب The Techlash and Tech Crisis Communication، مستشهدة بالمنتديات المخصصة للإيثار الفعال حيث يشعر الأعضاء بالقلق من أن “وادي السيليكون قد انقلب ضد” الحركة.
ويبدو أن المناخ قد تغير بالنسبة للمثيرين للقلق: ففي الربيع، على النقيض من ذلك، اكتسبوا شهرة من خلال التماسين يدعوان إلى “وقفة” في الذكاء الاصطناعي ومقارنة مخاطره بمخاطر الأوبئة أو الحرب النووية، ثم، في نوفمبر/تشرين الثاني، وقد نقلت قمة الذكاء الاصطناعي التي نظمت في المملكة المتحدة أطروحاتهم.
لديك 35% من هذه المقالة لقراءتها. والباقي للمشتركين فقط.
[ad_2]
المصدر