TechScape: الأشخاص المكلفون بالتأكد من أن الذكاء الاصطناعي لا يدمر البشرية قد غادروا المبنى

TechScape: الأشخاص المكلفون بالتأكد من أن الذكاء الاصطناعي لا يدمر البشرية قد غادروا المبنى

[ad_1]

كل شيء يحدث كثيرا. أنا في سيول لحضور القمة الدولية للذكاء الاصطناعي، وهي متابعة نصف سنوية لقمة بلتشلي بارك لسلامة الذكاء الاصطناعي العام الماضي (التكملة الكاملة ستكون في باريس هذا الخريف). وبينما تقرأ هذا، يكون اليوم الأول من الأحداث قد انتهى للتو ـ ولو أنه، تماشياً مع تراجع الضجة هذه المرة، كان ذلك مجرد اجتماع “افتراضي” للزعماء.

وعندما تم تحديد موعد لهذه القمة ــ في وقت متأخر إلى حد مثير للقلق، على سبيل المثال، بالنسبة لصحفي لديه طفلان في سن ما قبل المدرسة ويرى أن قضاء أربعة أيام خارج المنزل بمثابة شعوذة ــ كان من الواضح أن هناك الكثير مما يتعين تغطيته. صيف الذكاء الاصطناعي الحار قادم علينا:

أعلنت قمة سلامة الذكاء الاصطناعي الافتتاحية في بلتشلي بارك في المملكة المتحدة العام الماضي عن إطار اختبار دولي لنماذج الذكاء الاصطناعي، بعد دعوات للتوقف لمدة ستة أشهر في تطوير الأنظمة القوية.

لم يكن هناك توقف. وأشاد إعلان بلتشلي، الذي وقعته المملكة المتحدة والولايات المتحدة والاتحاد الأوروبي والصين وآخرون، بـ “الفرص العالمية الهائلة” التي يوفرها الذكاء الاصطناعي، لكنه حذر أيضًا من احتمال تسببه في ضرر “كارثي”. كما حصلت أيضًا على التزام من شركات التكنولوجيا الكبرى بما في ذلك OpenAI وGoogle وMeta التابعة لمارك زوكربيرج بالتعاون مع الحكومات في اختبار نماذجها قبل إصدارها.

في حين أنشأت المملكة المتحدة والولايات المتحدة معاهد وطنية لسلامة الذكاء الاصطناعي، استمر تطوير الذكاء الاصطناعي في الصناعة … أصدرت OpenAI GPT-4o (حرف o يرمز إلى “omni”) مجانًا عبر الإنترنت؛ وبعد يوم واحد، قامت جوجل بمعاينة مساعد الذكاء الاصطناعي الجديد المسمى Project Astra، بالإضافة إلى تحديثات لنموذج Gemini الخاص بها. في الشهر الماضي، أصدرت شركة Meta إصدارات جديدة من نموذج الذكاء الاصطناعي الخاص بها، Llama… وفي شهر مارس، قامت شركة Anthropic الناشئة للذكاء الاصطناعي، والتي شكلها موظفون سابقون في OpenAI الذين اختلفوا مع نهج ألتمان، بتحديث نموذج كلود الخاص بها.

وبعد ذلك، في عطلة نهاية الأسبوع التي سبقت انطلاق القمة، بدأ كل شيء في OpenAI أيضًا. ولعل الأمر الأكثر لفتًا للانتباه هو أن الشركة وجدت نفسها في خلاف مع سكارليت جوهانسون حول أحد الخيارات الصوتية المتاحة في الإصدار الجديد من ChatGPT. بعد أن طلبت من الممثلة منح صوتها لمساعدها الجديد، وهو العرض الذي رفضته مرتين، أطلقت OpenAI ChatGPT-4o مع “Sky” التي تتحدث من خلال قدراتها الجديدة. كان التشابه مع جوهانسون واضحًا على الفور للجميع، حتى قبل أن يغرد الرئيس التنفيذي سام ألتمان بكلمة “هي” بعد العرض (اسم فيلم سبايك جونز الذي عبر فيه جوهانسون عن ذكاء اصطناعي فائق الذكاء). وعلى الرغم من إنكار التشابه، فقد تمت إزالة خيار Sky voice.

والأهم من ذلك هو أن الرجلين اللذين يقودان فريق “الاصطفاف الفائق” التابع للشركة/غير الربحية/المنظمة السرية الشريرة – والذي كان مكرسًا لضمان ألا تؤدي جهودها لبناء ذكاء خارق إلى إنهاء الإنسانية – قد استقالا. كان أول من رحل هو إيليا سوتسكيفر، المؤسس المشارك للمنظمة وزعيم الانقلاب في مجلس الإدارة الذي أطاح بألتمان، بشكل مؤقت وغير فعال. وقد أثار خروجه الدهشة، لكنه لم يكن غير متوقع. إذا أتيت إلى الملك، فمن الأفضل ألا تفوتك. ثم، في يوم الجمعة، غادر أيضًا جان لايكي، القائد المشارك للمحاذاة الفائقة في Sutskever، وكان لديه الكثير ليقوله:

قال أحد كبار الموظفين السابقين في OpenAI إن الشركة التي تقف وراء ChatGPT تعطي الأولوية “للمنتجات اللامعة” على السلامة، وكشف عن استقالته بعد أن وصل الخلاف حول الأهداف الرئيسية إلى “نقطة الانهيار”.

قام Leike بتفصيل أسباب رحيله في موضوع على موقع X نُشر يوم الجمعة، حيث قال إن ثقافة السلامة أصبحت ذات أولوية أقل. وكتب: “على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة إلى المنتجات اللامعة”.

وكتب قائلاً: “من الصعب للغاية حل هذه المشكلات بشكل صحيح، وأنا أشعر بالقلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”، مضيفًا أن الأمر أصبح “أصعب فأصعب” بالنسبة لفريقه لإجراء أبحاثه.

“إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته. وكتب ليك: “تتحمل OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء”، مضيفًا أن OpenAI “يجب أن تصبح شركة AGI (الذكاء العام الاصطناعي) ذات الأولوية للسلامة”.

كانت مذكرة استقالة لايكي بمثابة نظرة نادرة على المعارضة في المجموعة، التي تم تصويرها في السابق على أنها ذات تفكير واحد تقريبًا في سعيها لتحقيق أهدافها – وهو ما يعني أحيانًا أهداف سام التمان. عندما تم فصل الرئيس التنفيذي ذو الشخصية الجذابة، أفادت التقارير أن جميع الموظفين تقريبًا قد قبلوا عروضًا من مايكروسوفت لمتابعته إلى مختبر جديد للذكاء الاصطناعي تم إنشاؤه تحت إدارة House of Gates، والذي يمتلك أيضًا أكبر حصة خارجية في الشركة التابعة لشركة OpenAI. حتى عندما استقال عدد من الموظفين ليشكلوا شركة Anthropic، وهي شركة ذكاء اصطناعي منافسة تميز نفسها من خلال الحديث عن مدى تركيزها على السلامة، فقد ظل مقدار الكلام التافه عند الحد الأدنى.

اتضح (مفاجأة!) أن هذا ليس لأن الجميع يحبون بعضهم البعض وليس لديهم ما يقولونه بشكل سيء. من كيلسي بايبر في Vox:

لقد رأيت اتفاقية الخروج المقيدة للغاية والتي تحتوي على أحكام عدم الإفصاح وعدم الاستخفاف التي يخضع لها موظفو OpenAI السابقون. ويمنعهم، لبقية حياتهم، من انتقاد صاحب العمل السابق. وحتى الاعتراف بوجود التجمع الوطني الديمقراطي يعد انتهاكًا له.

إذا رفض الموظف المغادر التوقيع على الوثيقة، أو إذا انتهكها، فيمكن أن يخسر جميع الأسهم المكتسبة التي اكتسبها خلال فترة وجوده في الشركة، والتي من المحتمل أن تبلغ قيمتها ملايين الدولارات. أحد الموظفين السابقين، دانييل كوكوتاجلو، الذي نشر أنه استقال من OpenAI “بسبب فقدان الثقة في أنها ستتصرف بشكل مسؤول في وقت قريب من AGI”، أكد علنًا أنه اضطر إلى تسليم ما كان من المحتمل أن يتبين أنه مبلغ ضخم من المال. المال من أجل الإقلاع عن التدخين دون التوقيع على الوثيقة.

وبعد مرور يوم واحد فقط، قال ألتمان إن أحكام الاسترداد “لم يكن من المفترض أن تكون موجودة في أي وثائق”. وأضاف: “لم نقم مطلقًا باسترداد الأسهم المكتسبة لأي شخص، ولن نفعل ذلك إذا لم يوقع الناس على اتفاقية الانفصال. هذا على عاتقي وفي إحدى المرات القليلة التي شعرت فيها بالحرج الشديد أثناء تشغيل openai؛ لم أكن أعلم أن هذا كان يحدث وكان ينبغي أن أفعل ذلك”. (نموذج الكتابة بالأحرف الكبيرة خاص به.)

لم يتطرق ألتمان إلى الادعاءات الأوسع المتعلقة باتفاقية عدم الإفشاء الصارمة والواسعة النطاق؛ ورغم وعده بإصلاح بند الاسترداد، لم يُقال أي شيء عن الحوافز الأخرى، العصا والجزرة، المقدمة للموظفين للتوقيع على أوراق الخروج.

كما هو الحال في مجموعة الملابس، فهي مثالية. لقد كان ألتمان من أشد المؤيدين لتنظيم الذكاء الاصطناعي على مستوى الدولة وبين الولايات. الآن نرى لماذا قد يكون ذلك ضروريا. إذا كان OpenAI، وهو أحد أكبر مختبرات الذكاء الاصطناعي وأفضلها موارد في العالم، والذي يدعي أن السلامة هي أصل كل ما يفعله، لا يمكنه حتى الحفاظ على فريقه معًا، فما هو الأمل الموجود لبقية العالم؟ صناعة؟

تخطي ترويج النشرة الإخبارية السابقة

يغوص Alex Hern الأسبوعي في كيفية تشكيل التكنولوجيا لحياتنا

إشعار الخصوصية: قد تحتوي النشرات الإخبارية على معلومات حول المؤسسات الخيرية والإعلانات عبر الإنترنت والمحتوى الممول من أطراف خارجية. لمزيد من المعلومات، انظر سياسة الخصوصية الخاصة بنا. نحن نستخدم Google reCaptcha لحماية موقعنا الإلكتروني وتنطبق سياسة خصوصية Google وشروط الخدمة.

Sloppy يعد “Shrimp Jesus” مثالاً على الفن الغريب الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والذي يتم مشاركته على Facebook

من الممتع مشاهدة مصطلح فني يتطور أمام عينيك. كان البريد يحتوي على بريد غير هام؛ كان البريد الإلكتروني يحتوي على بريد عشوائي؛ عالم الذكاء الاصطناعي منحدر:

“الإهمال” هو ما تحصل عليه عندما تقوم بنشر المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي على الويب ليتمكن أي شخص من مشاهدتها.

على عكس chatbot، فإن المنحدر ليس تفاعليًا، ونادرًا ما يهدف إلى الإجابة فعليًا على أسئلة القراء أو تلبية احتياجاتهم.

ولكن مثل البريد العشوائي، فإن تأثيره الإجمالي سلبي: فالوقت الضائع والجهد الذي يبذله المستخدمون الذين يضطرون الآن إلى الخوض في الفوضى للعثور على المحتوى الذي يبحثون عنه بالفعل يفوق بكثير الربح الذي يحققه منشئ المحتوى المهمل.

أنا حريص على المساعدة في نشر هذا المصطلح، للأسباب نفسها تقريبًا مثل سيمون ويليسون، المطور الذي لفت انتباهي إلى ظهوره: من الضروري أن يكون لدينا طرق سهلة للحديث عن الذكاء الاصطناعي بشكل سيئ، للحفاظ على القدرة على الاعتراف بأن الذكاء الاصطناعي يمكن القيام به بشكل جيد.

يشير وجود البريد العشوائي إلى رسائل البريد الإلكتروني التي ترغب في تلقيها؛ يستلزم وجود المنحدر محتوى الذكاء الاصطناعي المطلوب. بالنسبة لي، هذا هو المحتوى الذي أنشأته بنفسي، أو على الأقل أتوقع أن يتم إنشاؤه بواسطة الذكاء الاصطناعي. لا أحد يهتم بالحلم الذي حلمت به الليلة الماضية، ولا أحد يهتم بالرد الذي تلقيته من ChatGPT. احتفظ بها لنفسك.

ألا يتم تسليم TechScape إلى بريدك الوارد؟ قم بالتسجيل للحصول على المقال كاملا هنا

[ad_2]

المصدر