بدء تخصيب اليورانيوم في مشروع تجريبي مدعوم اتحاديًا في ولاية أوهايو

إساءة الاستخدام في الآلة: تظهر الدراسة أن مولدي الصور بالذكاء الاصطناعي يتم تدريبهم على صور صريحة للأطفال

[ad_1]

هناك آلاف الصور للاعتداء الجنسي على الأطفال مخبأة داخل أسس مولدات صور الذكاء الاصطناعي الشهيرة، وذلك وفقًا لتقرير جديد يحث الشركات على اتخاذ إجراءات لمعالجة الخلل الضار في التكنولوجيا التي طورتها.

وقد سهلت هذه الصور نفسها على أنظمة الذكاء الاصطناعي إنتاج صور واقعية وصريحة لأطفال مزيفين، بالإضافة إلى تحويل صور وسائل التواصل الاجتماعي لمراهقين حقيقيين يرتدون ملابس كاملة إلى عراة، الأمر الذي أثار قلق المدارس وجهات إنفاذ القانون في جميع أنحاء العالم.

حتى وقت قريب، اعتقد الباحثون في مجال مكافحة إساءة الاستخدام أن الطريقة الوحيدة التي تنتج بها بعض أدوات الذكاء الاصطناعي غير الخاضعة للرقابة صورًا مسيئة للأطفال هي من خلال الجمع بين ما تعلموه من مجموعتين منفصلتين من الصور عبر الإنترنت – المواد الإباحية للبالغين والصور الحميدة للأطفال.

لكن مرصد الإنترنت بجامعة ستانفورد عثر على أكثر من 3200 صورة للاعتداء الجنسي على الأطفال في قاعدة بيانات الذكاء الاصطناعي العملاقة LAION، وهو فهرس للصور والتعليقات التوضيحية عبر الإنترنت التي تم استخدامها لتدريب كبار صانعي صور الذكاء الاصطناعي مثل Stable Diffusion. وعملت مجموعة المراقبة ومقرها جامعة ستانفورد مع المركز الكندي لحماية الطفل وغيره من الجمعيات الخيرية المناهضة للإساءة لتحديد المواد غير القانونية والإبلاغ عن روابط الصور الأصلية إلى جهات إنفاذ القانون.

وكان الرد فوريا. عشية إصدار تقرير مرصد ستانفورد للإنترنت يوم الأربعاء، قالت LAION لوكالة أسوشيتد برس إنها قامت بإزالة مجموعات البيانات الخاصة بها مؤقتًا.

وقالت LAION، التي تمثل شبكة مفتوحة للذكاء الاصطناعي واسعة النطاق غير الربحية، في بيان لها إنها “تنتهج سياسة عدم التسامح مطلقًا مع المحتوى غير القانوني، وفي ظل قدر كبير من الحذر، قمنا بإزالة مجموعات بيانات LAION للتأكد من أنها آمنة قبل إعادة نشرها.”

في حين أن الصور لا تمثل سوى جزء صغير من مؤشر LAION الذي يبلغ حوالي 5.8 مليار صورة، تقول مجموعة ستانفورد إنها من المحتمل أن تؤثر على قدرة أدوات الذكاء الاصطناعي على توليد مخرجات ضارة وتعزيز الإساءة السابقة للضحايا الحقيقيين الذين يظهرون عدة مرات.

وقال ديفيد ثيل، كبير خبراء التكنولوجيا في مرصد ستانفورد للإنترنت، والذي كتب التقرير، إن هذه مشكلة ليست سهلة الإصلاح، وتعود جذورها إلى العديد من مشاريع الذكاء الاصطناعي التوليدية التي “تم نقلها بشكل فعال إلى السوق” وإتاحتها على نطاق واسع لأن هذا المجال تنافسي للغاية.

“إن إجراء عملية بحث كاملة على مستوى الإنترنت وإنشاء مجموعة البيانات هذه لتدريب النماذج هو أمر كان ينبغي أن يقتصر على عملية بحث، إذا كان هناك أي شيء، وليس شيئًا كان ينبغي أن يكون مفتوح المصدر دون الكثير من الاهتمام الصارم،” ثيل قال في مقابلة.

أحد مستخدمي LAION البارزين الذين ساعدوا في تشكيل تطوير مجموعة البيانات هو شركة Stability AI الناشئة ومقرها لندن، وهي الشركة المصنعة لنماذج Stable Diffusion لتحويل النص إلى صورة. جعلت الإصدارات الجديدة من Stable Diffusion إنشاء محتوى ضار أكثر صعوبة، لكن الإصدار الأقدم الذي تم طرحه العام الماضي – والذي تقول Stability AI إنها لم تطلقه – لا يزال مدمجًا في تطبيقات وأدوات أخرى ويظل “النموذج الأكثر شيوعًا لإنشاء محتوى ضار”. صور صريحة”، وفقًا لتقرير جامعة ستانفورد.

“لا يمكننا استعادة ذلك. وقال لويد ريتشاردسون، مدير تكنولوجيا المعلومات في المركز الكندي لحماية الطفل، الذي يدير الخط الساخن في كندا للإبلاغ عن الاستغلال الجنسي عبر الإنترنت، إن هذا النموذج أصبح في أيدي العديد من الأشخاص على أجهزتهم المحلية.

قالت Stability AI يوم الأربعاء إنها تستضيف فقط الإصدارات المفلترة من Stable Diffusion وأنه “منذ توليها التطوير الحصري لـ Stable Diffusion، اتخذت Stability AI خطوات استباقية للتخفيف من مخاطر سوء الاستخدام.”

وقالت الشركة في بيان مُعد: “تعمل هذه المرشحات على إزالة المحتوى غير الآمن من الوصول إلى العارضات”. “من خلال إزالة هذا المحتوى قبل أن يصل إلى النموذج، يمكننا المساعدة في منع النموذج من إنشاء محتوى غير آمن.”

كانت LAION من بنات أفكار الباحث والمعلم الألماني، كريستوف شومان، الذي أخبر وكالة أسوشييتد برس في وقت سابق من هذا العام أن جزءًا من السبب وراء جعل قاعدة البيانات المرئية الضخمة هذه متاحة للجمهور هو ضمان أن مستقبل تطوير الذكاء الاصطناعي لا يتحكم فيه أحد. حفنة من الشركات القوية.

وقال: “سيكون الأمر أكثر أمانًا وعدالة بكثير إذا تمكنا من إضفاء الطابع الديمقراطي عليه حتى يتمكن مجتمع البحث بأكمله وعامة الناس من الاستفادة منه”.

تأتي الكثير من بيانات LAION من مصدر آخر، وهو Common Crawl، وهو مستودع للبيانات يتم جمعها باستمرار من الإنترنت المفتوح، لكن المدير التنفيذي لـ Common Crawl، ريتش سكرينتا، قال إنه “يتعين على” LAION مسح وتصفية ما استغرقه قبل الاستخدام منه.

قالت LAION هذا الأسبوع إنها طورت “مرشحات صارمة” لاكتشاف المحتوى غير القانوني وإزالته قبل إصدار مجموعات البيانات الخاصة بها، ولا تزال تعمل على تحسين تلك المرشحات. واعترف تقرير ستانفورد بأن مطوري LAION قاموا ببعض المحاولات لتصفية المحتوى الصريح “للقاصرين”، لكن كان من الممكن أن يقوموا بعمل أفضل لو أنهم استشاروا في وقت سابق خبراء سلامة الأطفال.

يتم اشتقاق العديد من مولدات تحويل النص إلى صورة بطريقة ما من قاعدة بيانات LAION، على الرغم من أنه ليس من الواضح دائمًا أي منها. قالت OpenAI، الشركة المصنعة لـ DALL-E وChatGPT، إنها لا تستخدم LAION وقد قامت بضبط نماذجها لرفض طلبات المحتوى الجنسي التي تتضمن قاصرين.

قامت Google ببناء نموذج Imagen لتحويل النص إلى صورة استنادًا إلى مجموعة بيانات LAION، لكنها قررت عدم نشره للعامة في عام 2022 بعد أن كشفت مراجعة قاعدة البيانات “عن مجموعة واسعة من المحتوى غير المناسب بما في ذلك الصور الإباحية والافتراءات العنصرية والقوالب النمطية الاجتماعية الضارة”.

إن محاولة تنظيف البيانات بأثر رجعي أمر صعب، لذلك يدعو مرصد الإنترنت بجامعة ستانفورد إلى اتخاذ تدابير أكثر صرامة. إحداهما مخصصة لأي شخص قام ببناء مجموعات تدريبية من LAION-5B – والتي سميت على اسم أكثر من 5 مليارات زوج من الصور والنصوص التي تحتوي عليها – “لحذفها أو العمل مع وسطاء لتنظيف المادة”. والهدف الآخر هو جعل الإصدار الأقدم من Stable Diffusion يختفي بشكل فعال من جميع أركان الإنترنت باستثناء أحلك أركان الإنترنت.

وقال ثيل: “يمكن للمنصات المشروعة أن تتوقف عن تقديم نسخ منها للتنزيل”، خاصة إذا تم استخدامها بشكل متكرر لإنشاء صور مسيئة وليس لديها ضمانات لمنعها.

على سبيل المثال، أشار ثيل إلى CivitAI، وهي منصة يفضلها الأشخاص الذين يصنعون المواد الإباحية التي ينتجها الذكاء الاصطناعي، ولكنها قال إنها تفتقر إلى تدابير السلامة لموازنة إنتاج صور للأطفال. ويدعو التقرير أيضًا شركة Hugging Face للذكاء الاصطناعي، التي توزع بيانات التدريب للعارضات، إلى تنفيذ أساليب أفضل للإبلاغ عن الروابط المؤدية إلى المواد المسيئة وإزالتها.

وقالت Hugging Face إنها تعمل بانتظام مع المنظمين ومجموعات سلامة الأطفال لتحديد وإزالة المواد المسيئة. لم تُرجع CivitAI طلبات التعليق المقدمة إلى صفحة الويب الخاصة بها.

يتساءل تقرير ستانفورد أيضًا عما إذا كان ينبغي إدخال أي صور للأطفال – حتى الصور الأكثر اعتدالًا – في أنظمة الذكاء الاصطناعي دون موافقة أسرهم بسبب الحماية التي يوفرها قانون حماية خصوصية الأطفال الفيدرالي على الإنترنت.

وقالت ريبيكا بورتنوف، مديرة علوم البيانات في منظمة ثورن لمكافحة الاعتداء الجنسي على الأطفال، إن منظمتها أجرت بحثًا يظهر أن انتشار الصور التي ينشئها الذكاء الاصطناعي بين المعتدين صغير، ولكنه يتزايد باستمرار.

يمكن للمطورين التخفيف من هذه الأضرار من خلال التأكد من أن مجموعات البيانات التي يستخدمونها لتطوير نماذج الذكاء الاصطناعي خالية من مواد إساءة الاستخدام. وقال بورتنوف إن هناك أيضًا فرصًا للتخفيف من الاستخدامات الضارة في المستقبل بعد أن يتم تداول النماذج بالفعل.

تقوم شركات التكنولوجيا ومجموعات سلامة الأطفال حاليًا بتعيين مقاطع الفيديو والصور على شكل “تجزئة” – توقيعات رقمية فريدة – لتتبع وإزالة المواد المسيئة للأطفال. ووفقا لبورتنوف، يمكن تطبيق نفس المفهوم على نماذج الذكاء الاصطناعي التي يساء استخدامها.

وقالت: “هذا لا يحدث حاليًا. لكنه شيء في رأيي يمكن ويجب القيام به”.

[ad_2]

المصدر