[ad_1]
حذر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، الشركة التي طورت تطبيق الذكاء الاصطناعي المثير للجدل ChatGPT الموجه للمستهلك، من أن التكنولوجيا تأتي مع مخاطر حقيقية لأنها تعيد تشكيل المجتمع.
وأكد ألتمان، البالغ من العمر 37 عامًا، أن الجهات التنظيمية والمجتمع بحاجة إلى المشاركة في التكنولوجيا للحماية من العواقب السلبية المحتملة على البشرية. وقال ألتمان لشبكة إيه بي سي نيوز يوم الخميس: “يتعين علينا أن نكون حذرين هنا”، مضيفًا: “أعتقد أن الناس يجب أن يكونوا سعداء لأننا خائفون قليلاً من هذا.
وقال ألتمان “إنني أشعر بقلق خاص إزاء إمكانية استخدام هذه النماذج في نشر معلومات مضللة على نطاق واسع. والآن بعد أن أصبحت هذه النماذج أفضل في كتابة أكواد الكمبيوتر، فقد يتم استخدامها في شن هجمات إلكترونية هجومية”.
شرح الأسئلة والأجوبة: لماذا ترتكب برامج الدردشة الآلية أخطاء؟عرض
لا تفهم نماذج اللغة الكبيرة (LLM) الأشياء بالمعنى التقليدي – وهي جيدة أو دقيقة فقط بقدر المعلومات التي يتم تزويدها بها.
إنها في الأساس عبارة عن آلات لمطابقة الأنماط. ولا يهم ما إذا كان الناتج “صحيحًا” أم لا، طالما أنه يتطابق مع النمط.
إذا طلبت من روبوت المحادثة أن يكتب سيرة ذاتية لشخص مشهور إلى حد ما، فقد يكون صحيحًا في بعض الحقائق، ولكن بعد ذلك يخترع تفاصيل أخرى تبدو وكأنها يجب أن تتناسب مع السير الذاتية لهذا النوع من الأشخاص.
وقد يكون الأمر خاطئًا: إذا سألت GPT3 عما إذا كان رطل واحد من الريش يزن أكثر من رطلين من الفولاذ، فسوف يركز على حقيقة أن السؤال يبدو مثل سؤال الخدعة الكلاسيكي. ولن يلاحظ أن الأرقام قد تم تغييرها.
كان منافس جوجل لبرنامج ChatGPT، والذي يسمى Bard، قد شهد بداية محرجة عندما أظهر عرض فيديو للدردشة الآلية أنه يعطي إجابة خاطئة على سؤال حول تلسكوب جيمس ويب الفضائي.
اقرأ المزيد: شرح سبعة من أهم اختصارات الذكاء الاصطناعي
شكرا لك على ملاحظاتك.
لكن على الرغم من المخاطر، قال إنها قد تكون أيضًا “أعظم تقنية طورتها البشرية حتى الآن”.
وجاء التحذير في الوقت الذي أصدرت فيه شركة OpenAI أحدث إصدار من نموذج الذكاء الاصطناعي اللغوي الخاص بها، GPT-4، بعد أقل من أربعة أشهر من إصدار الإصدار الأصلي، ليصبح بذلك أسرع تطبيق استهلاكي نموًا في التاريخ.
وفي المقابلة، قال مهندس الذكاء الاصطناعي إنه على الرغم من أن الإصدار الجديد “ليس مثاليًا”، إلا أنه حصل على 90% في امتحانات نقابة المحامين في الولايات المتحدة ودرجة شبه مثالية في اختبار الرياضيات في المدرسة الثانوية. وقال إنه يمكنه أيضًا كتابة أكواد الكمبيوتر بمعظم لغات البرمجة.
تركز المخاوف بشأن الذكاء الاصطناعي الذي يواجه المستهلكين، والذكاء الاصطناعي بشكل عام، على استبدال البشر بالآلات. لكن ألتمان أشار إلى أن الذكاء الاصطناعي لا يعمل إلا تحت إشراف أو مدخلات من البشر.
وقال “إنها تنتظر شخصًا ما ليقدم لها مدخلات. هذه أداة تقع إلى حد كبير تحت سيطرة الإنسان”. لكنه قال إنه يشعر بالقلق بشأن البشر الذين لديهم سيطرة على المدخلات.
وأضاف “سيكون هناك أشخاص آخرون لا يلتزمون ببعض حدود السلامة التي نفرضها. أعتقد أن المجتمع لديه قدر محدود من الوقت لمعرفة كيفية التعامل مع ذلك، وكيفية تنظيمه، وكيفية التعامل معه”.
لقد واجه العديد من مستخدمي ChatGPT جهازًا يستجيب بطريقة دفاعية إلى حد جنون العظمة. في الاختبارات التي عُرضت على منفذ الأخبار التليفزيوني، أجرى GPT-4 اختبارًا استحضر فيه وصفات من محتويات الثلاجة.
أصدر إيلون ماسك، الرئيس التنفيذي لشركة تسلا، وأحد أوائل المستثمرين في OpenAI عندما كانت شركة غير ربحية، تحذيرات متكررة من أن الذكاء الاصطناعي أو AGI – الذكاء العام الاصطناعي – أكثر خطورة من السلاح النووي.
أعرب ماسك عن قلقه من أن شركة مايكروسوفت، التي تستضيف برنامج ChatGPT على محرك البحث Bing الخاص بها، قد حلت قسم الرقابة الأخلاقية لديها. وكتب ماسك في تغريدة في ديسمبر/كانون الأول: “لا توجد رقابة تنظيمية على الذكاء الاصطناعي، وهي مشكلة *كبرى*. لقد كنت أطالب بتنظيم سلامة الذكاء الاصطناعي لأكثر من عقد من الزمان!”. وفي هذا الأسبوع، عبر ماسك عن قلقه أيضًا على موقع تويتر الذي يمتلكه: “ما الذي سيبقى لنا نحن البشر لنفعله؟”.
واعترف ألتمان يوم الخميس بأن النسخة الأخيرة تستخدم التفكير الاستنتاجي بدلاً من الحفظ، وهي عملية يمكن أن تؤدي إلى استجابات غريبة.
يقول ألتمان: “الشيء الذي أحاول تحذير الناس منه أكثر من أي شيء آخر هو ما نطلق عليه “مشكلة الهلوسة”. سيقول النموذج بكل ثقة الأشياء كما لو كانت حقائق مختلقة بالكامل.
وأضاف أن “الطريقة الصحيحة للتفكير في النماذج التي نبتكرها هي استخدام محرك استدلالي، وليس قاعدة بيانات للحقائق”. ورغم أن التكنولوجيا قد تعمل كقاعدة بيانات للحقائق، قال: “هذا ليس ما يميزها حقًا – ما نريدها أن تفعله هو شيء أقرب إلى القدرة على الاستدلال، وليس الحفظ”.
في تحليل حديث لموقع ChatGPT، حذرت صحيفة الجارديان من أن ما تحصل عليه يعتمد على ما تضعه فيه. “نحن نستحق الأفضل من الأدوات التي نستخدمها، ووسائل الإعلام التي نستهلكها والمجتمعات التي نعيش فيها، ولن نحصل على ما نستحقه إلا عندما نكون قادرين على المشاركة الكاملة فيها”.
[ad_2]
المصدر