المبلغون عن مخالفات الذكاء الاصطناعي يحذرون من المخاطر ويطالبون بالشفافية

المبلغون عن مخالفات الذكاء الاصطناعي يحذرون من المخاطر ويطالبون بالشفافية

[ad_1]

دعت مجموعة تصف نفسها بأنها “موظفون حاليون وسابقون في شركات الذكاء الاصطناعي الحدودية” إلى مزيد من الشفافية والحماية للمبلغين عن المخالفات في الصناعة في رسالة يوم الثلاثاء.

وجاء في الرسالة: “طالما لا توجد رقابة حكومية فعالة على هذه الشركات، فإن الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلتهم أمام الجمهور”. “ومع ذلك، فإن اتفاقيات السرية الواسعة تمنعنا من التعبير عن مخاوفنا، باستثناء الشركات ذاتها التي قد تفشل في معالجة هذه القضايا”.

تم توقيع الرسالة من قبل أولئك الذين يصفون أنفسهم بأنهم موظفون حاليون وسابقون في شركات بما في ذلك OpenAI وDeepMind من Google وAnthropic، مع اختيار ستة منهم عدم الكشف عن هويتهم.

وتستمر الرسالة: “إن الحماية العادية للمبلغين عن المخالفات ليست كافية لأنها تركز على النشاط غير القانوني، في حين أن العديد من المخاطر التي نشعر بالقلق إزاءها لم يتم تنظيمها بعد”. “البعض منا يخشى بشكل معقول أشكالا مختلفة من الانتقام، نظرا لتاريخ مثل هذه الحالات في جميع أنحاء الصناعة. لسنا أول من واجه هذه القضايا أو تحدث عنها”.

تطلب الرسالة على وجه التحديد أن تتماشى “شركات الذكاء الاصطناعي المتقدمة” مع “المبادئ”، بما في ذلك عدم الدخول “في أي اتفاق يحظر “الاستخفاف” أو انتقاد الشركة بسبب المخاوف المتعلقة بالمخاطر” وأن تكون لصالح “ثقافة الانفتاح”. نقد.”

وتستمر الرسالة: “نأمل أن نتمكن من التخفيف من هذه المخاطر بشكل مناسب من خلال التوجيه الكافي من المجتمع العلمي وصانعي السياسات والجمهور”. “ومع ذلك، فإن شركات الذكاء الاصطناعي لديها حوافز مالية قوية لتجنب الرقابة الفعالة، ونحن لا نعتقد أن الهياكل المخصصة لحوكمة الشركات كافية لتغيير هذا الوضع.”

أعلنت شركة OpenAI الأسبوع الماضي أنها بصدد إنشاء لجنة سلامة لتقديم توصيات إلى مجلس إدارتها حول “قرارات السلامة والأمن الحاسمة”، برئاسة مديرها التنفيذي سام ألتمان إلى جانب المديرين آدم دانجيلو ونيكول سيليجمان وبريت تايلور.

[ad_2]

المصدر