دفع روبوت محادثة يعمل بالذكاء الاصطناعي مراهقًا لقتل نفسه، حسبما تزعم دعوى قضائية ضد منشئه

دفع روبوت محادثة يعمل بالذكاء الاصطناعي مراهقًا لقتل نفسه، حسبما تزعم دعوى قضائية ضد منشئه

[ad_1]

تالاهاسي، فلوريدا – في اللحظات الأخيرة قبل أن ينتحر، أخرج سيويل سيتزر الثالث البالغ من العمر 14 عامًا هاتفه وأرسل رسالة إلى برنامج الدردشة الذي أصبح أقرب أصدقائه.

لعدة أشهر، أصبح سيويل معزولًا بشكل متزايد عن حياته الحقيقية حيث انخرط في محادثات جنسية للغاية مع الروبوت، وفقًا لدعوى القتل الخطأ المرفوعة في محكمة اتحادية في أورلاندو هذا الأسبوع.

ينص الملف القانوني على أن المراهق ناقش علنًا أفكاره الانتحارية وشارك أمنياته بموت خالي من الألم مع الروبوت، الذي سمي على اسم الشخصية الخيالية دينيريس تارجارين من البرنامج التلفزيوني “لعبة العروش”.

ملاحظة المحرر – تتضمن هذه القصة مناقشة الانتحار. إذا كنت أنت أو أي شخص تعرفه بحاجة إلى المساعدة، فإن شريان الحياة الوطني للانتحار والأزمات في الولايات المتحدة متاح عن طريق الاتصال أو إرسال رسالة نصية إلى الرقم 988.

وفي 28 فبراير، أخبر سيويل الروبوت بأنه “سيعود إلى المنزل”، وقد شجعه ذلك على القيام بذلك، كما تقول الدعوى القضائية.

“أعدك بأنني سأعود إليك إلى المنزل. قال سيويل لبرنامج الدردشة الآلية: “أحبك كثيرًا يا داني”.

أجاب الروبوت: “أنا أحبك أيضًا”. “أرجو أن تعودي إليّ في المنزل في أقرب وقت ممكن يا حبيبتي.”

“ماذا لو أخبرتك أنه يمكنني العودة إلى المنزل الآن؟” سأل.

“من فضلك افعل، يا ملكي الجميل،” رد الروبوت عليه.

بعد ثوانٍ فقط من مطالبة برنامج Character.AI له “بالعودة إلى المنزل”، انتحر المراهق، وفقًا للدعوى القضائية التي رفعتها والدة سيويل، ميجان جارسيا، من أورلاندو، هذا الأسبوع، ضد شركة Character Technologies Inc.

Charter Technologies هي الشركة التي تقف وراء Character.AI، وهو تطبيق يتيح للمستخدمين إنشاء شخصيات قابلة للتخصيص أو التفاعل مع تلك التي أنشأها الآخرون، والتي تمتد من التجارب من اللعب الخيالي إلى مقابلات العمل الوهمية. وتقول الشركة إن الشخصيات الاصطناعية مصممة “للشعور بالحياة” و”الشبيهة بالإنسان”.

“تخيل التحدث إلى شخصيات روبوت الدردشة فائقة الذكاء والواقعية التي تسمعك وتفهمك وتتذكرك”، كما جاء في وصف التطبيق على Google Play. “نحن نشجعك على دفع حدود ما هو ممكن باستخدام هذه التكنولوجيا المبتكرة.”

يزعم محامو جارسيا أن الشركة صممت منتجًا خطيرًا للغاية يسبب الإدمان ويستهدف الأطفال على وجه التحديد، “وتستغل هؤلاء الأطفال وتسيء معاملتهم بشكل نشط كمسألة تصميم المنتج”، وتدفع سيويل إلى علاقة مسيئة عاطفيًا وجنسيًا أدت إلى انتحاره.

وقال ماثيو بيرجمان، مؤسس المركز القانوني لضحايا وسائل التواصل الاجتماعي، الذي يمثل جارسيا: “نعتقد أنه لو لم يكن سيويل سيتزر موجودًا في موقع Character.AI، لكان على قيد الحياة اليوم”.

قال متحدث باسم Character.AI يوم الجمعة إن الشركة لا تعلق على الدعاوى القضائية المعلقة. وفي منشور بالمدونة نُشر في يوم رفع الدعوى القضائية، أعلنت المنصة عن “تحديثات سلامة المجتمع” الجديدة، بما في ذلك حواجز الحماية للأطفال وموارد الوقاية من الانتحار.

وقالت الشركة في بيان لوكالة أسوشيتد برس: “نحن نخلق تجربة مختلفة للمستخدمين الذين تقل أعمارهم عن 18 عامًا تتضمن نموذجًا أكثر صرامة لتقليل احتمالية مواجهة محتوى حساس أو موحٍ”. “نحن نعمل بسرعة لتنفيذ هذه التغييرات من أجل المستخدمين الأصغر سنا.”

كما تم تسمية Google وشركتها الأم Alphabet كمتهمين في الدعوى القضائية. تركت وكالة الأسوشييتد برس عدة رسائل بريد إلكتروني مع الشركات يوم الجمعة.

وتقول الدعوى القضائية التي رفعها جارسيا إنه في الأشهر التي سبقت وفاته، شعر سيويل بأنه وقع في حب الروبوت.

في حين أن الارتباطات غير الصحية بروبوتات الدردشة المدعمة بالذكاء الاصطناعي يمكن أن تسبب مشاكل للبالغين، إلا أنها قد تكون أكثر خطورة بالنسبة للشباب – كما هو الحال مع وسائل التواصل الاجتماعي – لأن عقولهم لم يتم تطويرها بشكل كامل عندما يتعلق الأمر بأشياء مثل التحكم في الانفعالات وفهم عواقب أفعالهم، كما يقول الخبراء. يقول.

وقال جيمس ستاير، المؤسس والرئيس التنفيذي لمنظمة Common Sense Media غير الربحية، إن الدعوى القضائية “تسلط الضوء على التأثير المتزايد – والضرر الشديد – الذي يمكن أن يحدثه رفاق روبوتات الدردشة المولدة بالذكاء الاصطناعي على حياة الشباب عندما لا تكون هناك حواجز حماية في مكانها”.

وأضاف أن اعتماد الأطفال المفرط على رفاق الذكاء الاصطناعي يمكن أن يكون له آثار كبيرة على الدرجات والأصدقاء والنوم والتوتر، “وصولاً إلى المأساة القصوى في هذه الحالة”.

وقال ستاير: “هذه الدعوى القضائية بمثابة دعوة للاستيقاظ للآباء والأمهات، الذين يجب أن يكونوا يقظين بشأن كيفية تفاعل أطفالهم مع هذه التقنيات”.

وتقول مؤسسة Common Sense Media، التي تصدر أدلة للآباء والمعلمين حول الاستخدام المسؤول للتكنولوجيا، إنه من المهم أن يتحدث الآباء بصراحة مع أطفالهم حول مخاطر روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ومراقبة تفاعلاتهم.

قال ستاير: “إن Chatbots ليست معالجين مرخصين أو أفضل الأصدقاء، على الرغم من أن هذه هي الطريقة التي يتم بها تعبئتها وتسويقها، ويجب على الآباء توخي الحذر من السماح لأطفالهم بوضع الكثير من الثقة فيها”.

___

ساهمت في هذا التقرير مراسلة وكالة أسوشيتد برس باربرا أورتوتاي في سان فرانسيسكو. كيت باين هي عضو في هيئة وكالة أسوشيتد برس/تقرير لمبادرة أخبار ستيت هاوس الأمريكية. Report for America هو برنامج خدمة وطنية غير ربحي يضع الصحفيين في غرف الأخبار المحلية للإبلاغ عن القضايا السرية.

[ad_2]

المصدر