[ad_1]
وكالة أسوشيتد برس – قال إيليا سوتسكيفر، أحد مؤسسي OpenAI والذي شارك في محاولة فاشلة لطرد الرئيس التنفيذي سام ألتمان، إنه سيؤسس شركة ذكاء اصطناعي تركز على السلامة.
قال Sutskever، وهو باحث محترم في مجال الذكاء الاصطناعي والذي ترك صانع ChatGPT الشهر الماضي، في منشور على وسائل التواصل الاجتماعي يوم الأربعاء إنه أنشأ شركة Safe Superintelligence Inc. مع اثنين من المؤسسين المشاركين. الهدف الوحيد للشركة وتركيزها هو تطوير “الذكاء الفائق” بأمان – في إشارة إلى أنظمة الذكاء الاصطناعي الأكثر ذكاءً من البشر.
وتعهدت الشركة بعدم تشتيت انتباهها من خلال “النفقات الإدارية العامة أو دورات المنتج”، وبموجب نموذج أعمالها، سيكون العمل في مجال السلامة والأمن “معزولًا عن الضغوط التجارية قصيرة المدى”، كما قال سوتسكيفر ومؤسسيه دانييل جروس ودانيال ليفي. قال في بيان معد.
وقال الثلاثة إن شركة Safe Superintelligence هي شركة أمريكية لها جذور في بالو ألتو، كاليفورنيا، وتل أبيب، “حيث لدينا جذور عميقة وقدرة على توظيف أفضل المواهب التقنية”.
وكان سوتسكيفر جزءا من مجموعة قامت بمحاولة فاشلة العام الماضي للإطاحة بألتمان. أدى تغيير مجلس الإدارة، الذي قال سوتسكيفر لاحقًا إنه يأسف له، إلى فترة من الاضطرابات الداخلية تركزت حول ما إذا كان القادة في OpenAI يعطون الأولوية لفرص العمل على سلامة الذكاء الاصطناعي.
في OpenAI، قاد Sutskever بشكل مشترك فريقًا يركز على التطوير الآمن لذكاء اصطناعي أفضل من الإنسان والمعروف باسم الذكاء العام الاصطناعي، أو AGI. عندما غادر OpenAI، قال إن لديه خططًا لمشروع “ذو معنى شخصي للغاية”، لكنه لم يقدم أي تفاصيل.
قال Sutskever إنه كان هو من اختار ترك OpenAI.
وبعد أيام من رحيله، استقال أيضًا القائد المشارك لفريقه، جان لايكي، ووجه انتقادات إلى شركة OpenAI لأنها تركت السلامة “تأخذ المقعد الخلفي أمام المنتجات اللامعة”. أعلنت شركة OpenAI لاحقًا عن تشكيل لجنة للسلامة والأمن، لكنها كانت مملوءة بشكل أساسي بالعاملين في الشركة.
___
لدى Associated Press وOpenAI اتفاقية ترخيص وتقنية تسمح لـ OpenAI بالوصول إلى جزء من أرشيفات النصوص الخاصة بـ AP.
[ad_2]
المصدر