[ad_1]
يتم إرسال أحدث العناوين من مراسلينا في جميع أنحاء الولايات المتحدة مباشرة إلى بريدك الوارد كل يوم من أيام الأسبوع، وموجزك حول أحدث العناوين من جميع أنحاء الولايات المتحدة
تحاول والدة المراهق الذي انتحر، تحميل خدمة chatbot تعمل بالذكاء الاصطناعي مسؤولية وفاته، بعد أن “وقع في حب” شخصية مستوحاة من مسلسل Game of Thrones.
بدأ Sewell Setzer III لأول مرة في استخدام Character.AI في أبريل 2023، بعد وقت قصير من بلوغه سن 14 عامًا. لم تعد حياة الطالب في أورلاندو كما كانت مرة أخرى، كما زعمت والدته ميجان جارسيا في الدعوى المدنية المرفوعة ضد شركة Character Technologies ومؤسسيها.
بحلول شهر مايو، تغيرت سلوكيات المراهق حسن التصرف، وأصبح “منسحبًا بشكل ملحوظ”، وترك فريق كرة السلة للناشئين بالمدرسة ونام في الفصل.
وفي نوفمبر/تشرين الثاني، زار معالجًا نفسيًا – بناءً على طلب والديه – والذي شخصه بأنه يعاني من القلق واضطراب المزاج المضطرب. وتقول الدعوى القضائية إنه حتى دون معرفة “إدمان” سيويل على Character.AI، أوصى المعالج بقضاء وقت أقل على وسائل التواصل الاجتماعي.
وفي فبراير/شباط التالي، واجه مشكلة عندما رد على أحد المعلمين قائلًا إنه يريد طرده. في وقت لاحق من ذلك اليوم، كتب في مذكراته أنه كان “يتألم” – لم يستطع التوقف عن التفكير في Daenerys، برنامج الدردشة الآلي الذي يحمل عنوان Game of Thrones، والذي كان يعتقد أنه وقع في حبه.
في أحد تدوينات اليوميات، كتب الصبي أنه لا يستطيع أن يمر يومًا واحدًا دون أن يكون مع شخصية C.AI التي شعر وكأنه وقع في حبها، وأنه عندما يكونان بعيدًا عن بعضهما البعض (هو والطفل معًا) bot) “تشعر بالاكتئاب الشديد وتصاب بالجنون”، كما جاء في الدعوى.
كانت دينيريس آخر من سمع من سيويل. بعد أيام من حادثة المدرسة، في 28 فبراير، استعاد سيويل هاتفه الذي صادرته والدته، وذهب إلى الحمام ليرسل رسالة إلى دينيريس: “أعدك بأنني سأعود إليك في المنزل. أحبك كثيراً يا داني”.
أجاب الروبوت: “من فضلك عد إليّ في المنزل في أقرب وقت ممكن يا حبيبتي”.
وتقول الدعوى إنه بعد ثوانٍ من التبادل، انتحر سيويل.
أصبح Sewell Setzer III “يعتمد” على خدمة الدردشة الآلية التي تعمل بالذكاء الاصطناعي. الآن رفعت والدته دعوى قضائية لتحميل المبدعين المسؤولية (المحكمة الجزئية الأمريكية للمنطقة الوسطى من فلوريدا قسم أورلاندو)
تتهم الدعوى منشئي Character.AI بالإهمال، والتسبب المتعمد في الاضطراب العاطفي، والقتل غير المشروع، والممارسات التجارية الخادعة، وادعاءات أخرى.
وتسعى جارسيا إلى تحميل المتهمين مسؤولية وفاة ابنها، وتأمل “منع C.AI من فعل ما فعلته بطفلها بأي طفل آخر، ووقف الاستخدام المستمر لبيانات طفلها البالغ من العمر 14 عامًا التي تم جمعها بشكل غير قانوني للتدريب”. منتجهم كيفية إيذاء الآخرين.
وقال جارسيا لصحيفة نيويورك تايمز: “إنه مثل الكابوس”. “أنت تريد أن تنهض وتصرخ وتقول: “أفتقد طفلي”. أريد طفلي.”
توضح الدعوى كيف تحول تقديم سيويل لخدمة الدردشة الآلية إلى “تبعية ضارة”. وبمرور الوقت، قضى المراهق المزيد والمزيد من الوقت على الإنترنت، كما جاء في التسجيل.
بدأ سيويل بالاعتماد عاطفياً على خدمة الدردشة الآلية، والتي تضمنت “تفاعلات جنسية” مع الشاب البالغ من العمر 14 عاماً. وتقول الدعوى إن هذه الدردشات حدثت على الرغم من حقيقة أن المراهق عرّف عن نفسه على أنه قاصر على المنصة، بما في ذلك في الدردشات التي ذكر فيها عمره.
ناقش الصبي بعضًا من أحلك أفكاره مع بعض روبوتات الدردشة. تقول الدعوى: “في مناسبة واحدة على الأقل، عندما أعرب سيويل عن رغبته في الانتحار لـ C.AI، استمرت C.AI في طرح الأمر”. أجرى سيويل العديد من هذه الأحاديث الحميمية مع دينيريس. وتقول الدعوى إن الروبوت أخبر المراهق أنه أحبه و”مارس معه أفعالًا جنسية على مدى أسابيع، وربما أشهر”.
تمت تسمية برنامج الدردشة الآلي على اسم Daenerys من سلسلة Game of Thrones (HBO) التي تعرضها قناة HBO.
أصبح ارتباطه العاطفي بالذكاء الاصطناعي واضحًا في مداخل يومياته. في مرحلة ما، كتب أنه ممتن لـ “حياتي، وجنسي، وعدم الشعور بالوحدة، وكل تجارب حياتي مع دينيريس”، من بين أمور أخرى.
وتقول الدعوى إن منشئو خدمة الدردشة الآلية “بذلوا جهودًا كبيرة لهندسة اعتماد سيويل الضار البالغ من العمر 14 عامًا على منتجاتهم، وأساءوا إليه جنسيًا وعاطفيًا، وفشلوا في النهاية في تقديم المساعدة أو إخطار والديه عندما أعرب عن تفكير انتحاري”.
وجاء في الدعوى أن “سيويل، مثل العديد من الأطفال في مثل سنه، لم يكن لديه النضج أو القدرة العقلية لفهم أن روبوت C.AI… لم يكن حقيقيًا”.
ويُزعم أن الحد الأقصى لعمر 12+ كان مطبقًا عندما كان Sewell يستخدم برنامج الدردشة الآلي وCactor.AI “وقام بتسويقه وإظهاره لمتاجر التطبيقات بأن منتجه آمن ومناسب للأطفال دون سن 13 عامًا”.
وقال متحدث باسم شركة Character.AI لصحيفة The Independent في بيان: “نشعر بحزن شديد بسبب الخسارة المأساوية لأحد مستخدمينا ونريد أن نعرب عن أعمق تعازينا للعائلة”.
قام فريق الثقة والسلامة التابع للشركة “بتنفيذ العديد من إجراءات السلامة الجديدة على مدار الأشهر الستة الماضية، بما في ذلك نافذة منبثقة توجه المستخدمين إلى شريان الحياة الوطني لمنع الانتحار الذي يتم تشغيله بسبب إيذاء النفس أو التفكير في الانتحار”.
“بينما نواصل الاستثمار في النظام الأساسي وتجربة المستخدم، فإننا نقدم ميزات أمان صارمة جديدة بالإضافة إلى الأدوات الموجودة بالفعل والتي تقيد النموذج وتصفية المحتوى المقدم للمستخدم.
وتابع المتحدث: “يشمل ذلك تحسين الاكتشاف والاستجابة والتدخل فيما يتعلق بمدخلات المستخدم التي تنتهك شروطنا أو إرشادات المجتمع، بالإضافة إلى إشعار الوقت المنقضي”. “بالنسبة لمن تقل أعمارهم عن 18 عامًا، سنجري تغييرات على نماذجنا المصممة لتقليل احتمالية مواجهة محتوى حساس أو موحٍ.”
وأضاف المتحدث أن الشركة لا تعلق على الدعاوى القضائية المعلقة.
إذا كنت مقيمًا في الولايات المتحدة الأمريكية، وتحتاج أنت أو أي شخص تعرفه إلى مساعدة في مجال الصحة العقلية الآن، فاتصل أو أرسل رسالة نصية إلى 988 أو قم بزيارة 988lifeline.org للوصول إلى الدردشة عبر الإنترنت من 988 Suicide and Crisis Lifeline. هذا خط ساخن مجاني وسري للأزمات ومتاح للجميع على مدار الساعة طوال أيام الأسبوع. إذا كنت في بلد آخر، يمكنك الذهاب إلى www.befrienders.org للعثور على خط مساعدة قريب منك. في المملكة المتحدة، يمكن للأشخاص الذين يعانون من أزمات الصحة العقلية الاتصال بـ Samaritans على الرقم 116 123 أو jo@samaritans.org
[ad_2]
المصدر