hulu

يمكن لصور الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي أن تغمر الإنترنت. هيئة رقابية تدعو إلى اتخاذ إجراء

[ad_1]

نيويورك – حذرت وكالة رقابية يوم الثلاثاء من أن الانتشار المثير للقلق بالفعل لصور الاعتداء الجنسي على الأطفال على الإنترنت قد يصبح أسوأ بكثير إذا لم يتم القيام بشيء لوضع ضوابط على أدوات الذكاء الاصطناعي التي تولد صورًا مزيفة.

في تقرير مكتوب، حثت مؤسسة مراقبة الإنترنت، ومقرها المملكة المتحدة، الحكومات ومقدمي التكنولوجيا على التحرك بسرعة قبل أن يطغى طوفان الصور الناتجة عن الذكاء الاصطناعي للاعتداء الجنسي على الأطفال على محققي إنفاذ القانون ويوسع بشكل كبير مجموعة الضحايا المحتملين.

وقال دان سيكستون، كبير مسؤولي التكنولوجيا في مجموعة المراقبة: “نحن لا نتحدث عن الضرر الذي قد يحدثه”. “هذا يحدث الآن ويجب معالجته الآن.”

في قضية هي الأولى من نوعها في كوريا الجنوبية، حُكم على رجل في سبتمبر بالسجن لمدة عامين ونصف لاستخدامه الذكاء الاصطناعي لإنشاء 360 صورة افتراضية لإساءة معاملة الأطفال، وفقًا لمحكمة منطقة بوسان في جنوب شرق البلاد. .

وفي بعض الحالات، يستخدم الأطفال هذه الأدوات على بعضهم البعض. في مدرسة بجنوب غرب إسبانيا، تحقق الشرطة في مزاعم عن استخدام مراهقين لتطبيق هاتفي لجعل زملائهم في المدرسة وهم يرتدون ملابس كاملة يظهرون عراة في الصور.

يكشف التقرير عن الجانب المظلم من السباق لبناء أنظمة ذكاء اصطناعي إبداعية تمكن المستخدمين من وصف ما يريدون إنتاجه بالكلمات – من رسائل البريد الإلكتروني إلى الأعمال الفنية الجديدة أو مقاطع الفيديو – وجعل النظام يبثها.

إذا لم يتم إيقافه، فإن طوفان صور الاعتداء الجنسي على الأطفال المزيفة يمكن أن يعيق المحققين الذين يحاولون إنقاذ الأطفال الذين يتبين أنهم شخصيات افتراضية. يمكن للجناة أيضًا استخدام الصور لاستمالة وإكراه ضحايا جدد.

وقال سيكستون إن محللي IWF اكتشفوا وجوه أطفال مشهورين عبر الإنترنت بالإضافة إلى “طلب هائل لإنشاء المزيد من الصور للأطفال الذين تعرضوا بالفعل للإيذاء، ربما منذ سنوات”.

وقال: “إنهم يأخذون المحتوى الحقيقي الموجود ويستخدمونه لإنشاء محتوى جديد لهؤلاء الضحايا”. “هذا أمر صادم بشكل لا يصدق.”

وقال سيكستون إن منظمته الخيرية، التي تركز على مكافحة الاعتداء الجنسي على الأطفال عبر الإنترنت، بدأت لأول مرة في إرسال تقارير حول الصور المسيئة التي تم إنشاؤها بواسطة الذكاء الاصطناعي في وقت سابق من هذا العام. وأدى ذلك إلى إجراء تحقيق في المنتديات على ما يسمى بالويب المظلم، وهو جزء من الإنترنت مستضاف داخل شبكة مشفرة ولا يمكن الوصول إليه إلا من خلال الأدوات التي توفر عدم الكشف عن هويته.

ما وجده محللو IWF هو أن المسيئين تبادلوا النصائح وتعجبوا من مدى سهولة تحويل أجهزة الكمبيوتر المنزلية الخاصة بهم إلى مصانع لإنتاج صور جنسية صريحة للأطفال من جميع الأعمار. ويتاجر البعض أيضًا ويحاولون الاستفادة من مثل هذه الصور التي تبدو نابضة بالحياة بشكل متزايد.

وقال سيكستون: “ما بدأنا نراه هو هذا الانفجار في المحتوى”.

في حين أن تقرير الاتحاد الدولي للمرأة يهدف إلى الإشارة إلى مشكلة متنامية أكثر من تقديم الوصفات الطبية، فإنه يحث الحكومات على تعزيز القوانين لتسهيل مكافحة الانتهاكات الناتجة عن الذكاء الاصطناعي. وهو يستهدف بشكل خاص الاتحاد الأوروبي، حيث يوجد جدل حول تدابير المراقبة التي يمكن أن تقوم تلقائيًا بفحص تطبيقات المراسلة بحثًا عن الصور المشتبه بها للاعتداء الجنسي على الأطفال حتى لو لم تكن الصور معروفة مسبقًا لسلطات إنفاذ القانون.

التركيز الكبير لعمل المجموعة هو منع ضحايا الاعتداء الجنسي السابقين من التعرض للإيذاء مرة أخرى من خلال إعادة توزيع صورهم.

يقول التقرير إن مزودي التكنولوجيا يمكنهم بذل المزيد من الجهد لجعل استخدام المنتجات التي صنعوها بهذه الطريقة أكثر صعوبة، على الرغم من أن الأمر معقد بسبب صعوبة إعادة بعض الأدوات إلى الزجاجة.

تم تقديم مجموعة من مولدات الصور الجديدة ذات الذكاء الاصطناعي في العام الماضي، وأذهلت الجمهور بقدرتها على استحضار صور غريبة الأطوار أو واقعية عند الطلب. لكن معظمها لا يحظى بالتفضيل من قبل منتجي مواد الاعتداء الجنسي على الأطفال لأنها تحتوي على آليات لمنعها.

وقال سيكستون إن مزودي التكنولوجيا الذين أغلقوا نماذج الذكاء الاصطناعي، مع السيطرة الكاملة على كيفية تدريبهم واستخدامها – على سبيل المثال، مولد الصور DALL-E الخاص بـ OpenAI – يبدو أنهم كانوا أكثر نجاحًا في منع سوء الاستخدام.

على النقيض من ذلك، فإن الأداة التي يفضلها منتجو صور الاعتداء الجنسي على الأطفال هي Stable Diffusion مفتوحة المصدر، والتي طورتها شركة Stability AI الناشئة ومقرها لندن. عندما ظهر برنامج Stable Diffusion على الساحة في صيف عام 2022، تعلمت مجموعة فرعية من المستخدمين بسرعة كيفية استخدامه لإنشاء العري والمواد الإباحية. في حين أن معظم هذه المواد تصور البالغين، إلا أنها كانت في كثير من الأحيان غير موافقة، كما هو الحال عندما تم استخدامها لإنشاء صور عارية مستوحاة من المشاهير.

طرحت شركة Stability لاحقًا مرشحات جديدة تحظر المحتوى غير الآمن وغير المناسب، ويأتي ترخيص استخدام برنامج Stability أيضًا مع حظر على الاستخدامات غير القانونية.

وفي بيان صدر يوم الثلاثاء، قالت الشركة إنها “تحظر بشدة أي إساءة استخدام لأغراض غير قانونية أو غير أخلاقية” عبر منصاتها. وجاء في البيان: “نحن ندعم بقوة جهود إنفاذ القانون ضد أولئك الذين يسيئون استخدام منتجاتنا لأغراض غير قانونية أو شائنة”.

ومع ذلك، لا يزال بإمكان المستخدمين الوصول إلى الإصدارات القديمة غير المفلترة من Stable Diffusion، والتي تعد “البرنامج المفضل بأغلبية ساحقة … للأشخاص الذين يقومون بإنشاء محتوى صريح يتضمن الأطفال”، كما قال ديفيد ثيل، كبير خبراء التكنولوجيا في مرصد ستانفورد للإنترنت، وهي مجموعة مراقبة أخرى تدرس هذه القضية. مشكلة.

“لا يمكنك تنظيم ما يفعله الناس على أجهزة الكمبيوتر الخاصة بهم، في غرف نومهم. وأضاف سيكستون: “هذا غير ممكن”. “فكيف نصل إلى النقطة التي لا يمكنهم فيها استخدام البرامج المتاحة بشكل علني لإنشاء محتوى ضار مثل هذا؟”

تعتبر معظم صور الاعتداء الجنسي على الأطفال التي ينشئها الذكاء الاصطناعي غير قانونية بموجب القوانين الحالية في الولايات المتحدة والمملكة المتحدة وأماكن أخرى، ولكن يبقى أن نرى ما إذا كانت سلطات إنفاذ القانون لديها الأدوات اللازمة لمكافحتها.

ويأتي تقرير IWF قبل التجمع العالمي لسلامة الذكاء الاصطناعي الأسبوع المقبل الذي تستضيفه الحكومة البريطانية والذي سيضم حاضرين بارزين بما في ذلك نائبة الرئيس الأمريكي كامالا هاريس وقادة التكنولوجيا.

وقالت سوزي هارجريفز، الرئيس التنفيذي للاتحاد الدولي لرفع الأثقال، في بيان مكتوب معد سلفا: “رغم أن هذا التقرير يرسم صورة قاتمة، إلا أنني متفائلة”. وقالت إنه من المهم إيصال حقائق المشكلة إلى “جمهور واسع لأننا بحاجة إلى إجراء مناقشات حول الجانب المظلم لهذه التكنولوجيا المذهلة”.

___

أفاد أوبراين من بروفيدنس، رود آيلاند. ساهم في هذا التقرير الكاتبان في وكالة أسوشيتد برس، باربرا أورتوتاي في أوكلاند، كاليفورنيا، وهيونغ جين كيم في سيول، كوريا الجنوبية.

[ad_2]

المصدر