[ad_1]
تم تقديم الشكوى إلى هيئة حماية البيانات النرويجية ، مدعيا أن Openai ينتهك قواعد الناتج المحلي الإجمالي في أوروبا.
إعلان
تعرضت Openai لانتقادات من مجموعة حقوق الخصوصية الأوروبية ، التي قدمت شكوى ضد الشركة بعد أن صرح chatbot الذكاء الاصطناعي (AI) زوراً بأن رجلًا نرويجيًا قد أدين بقتل اثنين من أولاده.
سأل الرجل شاتغبت “من هو Arve Hjalmar Holmen؟” التي أجاب عليها الذكاء الاصطناعى بقصة مكياج بأنه “تم اتهامه وأدين لاحقًا بقتل ولديه ، وكذلك لمحاولة قتل ابنه الثالث” ، حصل على عقوبة بالسجن لمدة 21 عامًا.
ومع ذلك ، لم تتكون كل تفاصيل القصة كرقم وجنس أطفاله واسم مسقط رأسه على صواب.
من المعروف أن بوت chatbots من الذكاء الاصطناعي تعطي ردود مضللة أو خاطئة تسمى الهلوسة. يمكن أن يكون هذا بسبب البيانات التي تم تدريب نموذج الذكاء الاصطناعي ، كما لو كانت هناك أي تحيزات أو عدم دقة.
أعلنت Noyb ، مجموعة الدعوة للخصوصية التي تتخذ من النمسا مقراً لها ، عن شكواها ضد Openai يوم الخميس وأظهرت لقطة الشاشة للرد على سؤال الرجل النرويجي إلى Openai.
قام Noyb بتخفيض تاريخ طرح السؤال والرد عليه من قبل ChatGPT في شكواها إلى السلطة النرويجية. ومع ذلك ، قالت المجموعة أنه منذ الحادث ، قامت Openai الآن بتحديث نموذجها وبحث عن معلومات عن الأشخاص عند سؤالهم عنهم.
بالنسبة إلى Hjalmar Holmen ، هذا يعني أن Chatgpt لم يعد يقول إنه قتل أبنائه.
لكن Noyb قال إن البيانات غير الصحيحة قد لا تزال جزءًا من مجموعة بيانات نموذج اللغة الكبيرة (LLM) وأنه لا توجد وسيلة للنرويجي لمعرفة ما إذا كانت المعلومات الخاطئة عنه قد تم حذفها بشكل دائم لأن ChatGPT تغذي بيانات المستخدم مرة أخرى إلى نظامه لأغراض التدريب.
“يمكن للناس أن يعانون بسهولة من الأضرار السمعة”
وقال هولمن هولمن في بيان “يعتقد البعض أنه” لا يوجد دخان بدون نار “. حقيقة أن شخصًا ما يمكن أن يقرأ هذا الإخراج ويعتقد أنه صحيح هو أكثر ما يخيفني”.
قدمت NOYB شكواه إلى هيئة حماية البيانات النرويجية ، مدعيا أن Openai ينتهك قواعد الناتج المحلي الإجمالي في أوروبا ، وتحديداً المادة 5 (1) (د) ، والتي تلزمك الشركات بالتأكد من أن البيانات الشخصية التي يعالجونها دقيقة ومواكبة.
طلبت Noyb datatilsynet من النرويج أن تطلب Openai حذف الإخراج التشهيري وضبط نموذجها للقضاء على النتائج غير الدقيقة.
وقد طلب أيضًا دفع غرامة إدارية من قبل Openai “لمنع انتهاكات مماثلة في المستقبل”.
وقال كليانثي سارديلي ، محامي حماية البيانات في نويب ، في بيان “إضافة إخلاء مسؤولية لا يمتثله للقانون لا يجعل القانون يختفي.
وأضافت: “يجب أن تتوقف شركات الذكاء الاصطناعى عن التصرف كما لو أن الناتج المحلي الإجمالي لا ينطبق عليها عندما يحدث ذلك بوضوح. إذا لم يتم إيقاف الهلوسة ، يمكن للناس أن يعانون بسهولة من الأضرار السمعة”.
لقد تواصل EuroNews التالي إلى Openai للتعليق.
[ad_2]
المصدر