[ad_1]
اتهم مكتب التحقيقات الفيدرالي (FBI) رجلاً أمريكيًا بإنشاء أكثر من 10000 صورة جنسية صريحة ومسيئة للأطفال، والتي يُزعم أنه أنشأها باستخدام أداة ذكاء اصطناعي شائعة. واتهمت السلطات أيضًا الرجل، ستيفن أندريج، البالغ من العمر 42 عامًا، بإرسال صور إباحية مصنوعة بالذكاء الاصطناعي إلى صبي يبلغ من العمر 15 عامًا عبر موقع إنستغرام.
صاغ Anderegg حوالي 13000 “صورة واقعية للغاية لأطفال قبل سن البلوغ عراة وشبه ملابس”، حسبما ذكر ممثلو الادعاء في لائحة اتهام صدرت يوم الاثنين، غالبًا ما تكون صورًا تصور أطفالًا يلمسون أعضائهم التناسلية أو يتعرضون للاعتداء الجنسي من قبل رجال بالغين. يُزعم أن الأدلة الواردة من الكمبيوتر المحمول الخاص بالرجل من ولاية ويسكونسن أظهرت أنه استخدم نموذج Stable Diffusion AI الشهير، والذي يحول أوصاف النص إلى صور.
جاءت اتهامات Anderegg بعد أن تلقى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) تقريرين في العام الماضي قاما بوضع علامة على حسابه على Instagram، مما دفع مسؤولي إنفاذ القانون إلى مراقبة نشاطه على الشبكة الاجتماعية، والحصول على معلومات من Instagram، وفي النهاية الحصول على مذكرة تفتيش. . صادرت السلطات جهاز الكمبيوتر المحمول الخاص به وعثرت على الآلاف من صور الذكاء الاصطناعي، وفقًا للائحة الاتهام الموجهة ضده، بالإضافة إلى تاريخ في استخدام “مطالبات محددة وصريحة للغاية” لإنشاء مواد مسيئة.
يواجه Anderegg أربع تهم تتعلق بإنشاء وتوزيع وحيازة مواد الاعتداء الجنسي على الأطفال وإرسال مواد صريحة إلى طفل أقل من 16 عامًا. وفي حالة إدانته، فإنه يواجه عقوبة قصوى تصل إلى حوالي 70 عامًا في السجن، حيث أفادت 404 وسائل إعلام أن القضية هي واحدة من في المرة الأولى التي اتهم فيها مكتب التحقيقات الفيدرالي شخصًا ما بإنشاء مواد اعتداء جنسي على الأطفال بواسطة الذكاء الاصطناعي. في الشهر الماضي، ألقي القبض على رجل في فلوريدا بتهمة التقاط صورة لطفل جاره واستخدام الذكاء الاصطناعي لإنشاء صور جنسية صريحة مع الصورة.
ولطالما حذر المدافعون عن سلامة الأطفال وباحثو الذكاء الاصطناعي من أن الاستخدام الضار للذكاء الاصطناعي التوليدي يمكن أن يؤدي إلى زيادة في مواد الاعتداء الجنسي على الأطفال. ارتفعت التقارير المقدمة إلى NCMEC عن إساءة معاملة الأطفال عبر الإنترنت بنسبة 12٪ تقريبًا في عام 2023 مقارنة بالعام السابق، ويرجع ذلك جزئيًا إلى الزيادة الحادة في المواد المصنوعة بواسطة الذكاء الاصطناعي، مما يهدد بإرباك خط نصائح المنظمة للإبلاغ عن مواد الاعتداء الجنسي على الأطفال المحتملة (CSAM).
“يشعر NCMEC بقلق عميق بشأن هذا الاتجاه المتنامي بسرعة، حيث يمكن للجهات الفاعلة السيئة استخدام الذكاء الاصطناعي لإنشاء صور أو مقاطع فيديو جنسية صريحة مزيفة استنادًا إلى أي صورة لطفل حقيقي أو إنشاء مواد الاعتداء الجنسي على الأطفال التي تصور أطفالًا تم إنشاؤها بواسطة الكمبيوتر يشاركون في أعمال جنسية مصورة”. قراءة تقرير NCMEC.
أدى الازدهار في مجال الذكاء الاصطناعي إلى انتشار واسع النطاق لمواد إباحية مزيفة للغاية دون رضاهم، والتي استهدفت أي شخص من المشاهير إلى المواطنين العاديين. كما تم أيضًا تداول الصور التي أنشأها الذكاء الاصطناعي والتزييف العميق للقاصرين بين المدارس، مما أدى في إحدى الحالات إلى اعتقال صبيين في المدرسة الإعدادية في فلوريدا قاما بإنشاء صور عارية لزملائهما في الصف. وقد أصدرت عدة ولايات قوانين ضد إنشاء صور فاضحة بدون موافقة الجمهور، في حين قالت وزارة العدل إن إنشاء صور جنسية للأطفال باستخدام الذكاء الاصطناعي أمر غير قانوني.
وقالت نائبة المدعي العام، ليزا موناكو، في بيان بعد الاعتقال: “ستلاحق وزارة العدل بقوة أولئك الذين ينتجون ويوزعون مواد الاعتداء الجنسي على الأطفال – أو CSAM – بغض النظر عن كيفية إنشاء هذه المواد”. “ببساطة، لا يزال الاعتداء الجنسي على الأطفال الناتج عن الذكاء الاصطناعي بمثابة الاعتداء الجنسي على الأطفال، وسنحاسب أولئك الذين يستغلون الذكاء الاصطناعي لإنشاء صور فاحشة ومسيئة وواقعية بشكل متزايد للأطفال”.
تم استخدام Stable Diffusion، وهو نموذج ذكاء اصطناعي مفتوح المصدر، سابقًا لإنشاء صور مسيئة جنسيًا وتعديلها من قبل المستخدمين لإنتاج مواد صريحة. كما وجد تقرير صدر العام الماضي عن مرصد ستانفورد للإنترنت أن هناك مواد تتعلق بالاعتداء الجنسي على الأطفال في بيانات التدريب الخاصة به. قالت Stability AI، التي أنشأت Stable Diffusion، إنها تحظر استخدام نموذجها لإنشاء محتوى غير قانوني.
تخطي ترويج النشرة الإخبارية السابقة
يلخص موجزنا الصباحي في الولايات المتحدة الأحداث الرئيسية لهذا اليوم، ويخبرك بما يحدث وسبب أهميته
إشعار الخصوصية: قد تحتوي النشرات الإخبارية على معلومات حول المؤسسات الخيرية والإعلانات عبر الإنترنت والمحتوى الممول من أطراف خارجية. لمزيد من المعلومات، انظر سياسة الخصوصية الخاصة بنا. نحن نستخدم Google reCaptcha لحماية موقعنا الإلكتروني وتنطبق سياسة خصوصية Google وشروط الخدمة.
بعد الترويج للنشرة الإخبارية
قالت Stability AI، الشركة البريطانية التي تقف وراء الإصدار الواسع من Stable Diffusion، إنها تعتقد أن نموذج الذكاء الاصطناعي المستخدم في هذه الحالة كان نسخة سابقة من النموذج الذي تم إنشاؤه في الأصل بواسطة الشركة الناشئة RunwayML. ادعت شركة Stability AI أنه منذ أن تولت تطوير نماذج Stable Diffusion في عام 2022، قامت بتطبيق المزيد من الضمانات في الأداة. اتصلت صحيفة The Guardian بـ RunwayML للتعليق.
وقالت الشركة في بيان: “تلتزم شركة Stability AI بمنع إساءة استخدام الذكاء الاصطناعي وحظر استخدام نماذج الصور والخدمات الخاصة بنا في نشاط غير قانوني، بما في ذلك محاولات تحرير أو إنشاء CSAM”.
في الولايات المتحدة، اتصل أو أرسل رسالة نصية إلى الخط الساخن لإساءة معاملة الأطفال على الرقم 800-422-4453 أو قم بزيارة موقع الويب الخاص بهم للحصول على المزيد من الموارد والإبلاغ عن إساءة معاملة الأطفال أو أرسل رسالة مباشرة للحصول على المساعدة. بالنسبة للبالغين الناجين من إساءة معاملة الأطفال، تتوفر المساعدة على ascasupport.org. في المملكة المتحدة، تقدم NSPCC الدعم للأطفال على الرقم 0800 1111، وللبالغين المعنيين بطفل على الرقم 0808 800 5000. وتقدم الجمعية الوطنية للأشخاص الذين تعرضوا للإساءة في مرحلة الطفولة (Napac) الدعم للناجين البالغين على الرقم 0808 801 0331. وفي أستراليا، الأطفال يمكن للشباب والآباء والمدرسين الاتصال بخط مساعدة الأطفال على الرقم 1800 55 1800، أو Bravehearts على الرقم 1800 272 831، ويمكن للناجين البالغين الاتصال بمؤسسة Blue Knot على الرقم 1300 657 380. ويمكن العثور على مصادر أخرى للمساعدة على Child Helplines International
[ad_2]
المصدر