[ad_1]
ظهرت أحدث قضية جنائية تتعلق بالذكاء الاصطناعي الأسبوع الماضي في مدرسة ثانوية بولاية ماريلاند، حيث تقول الشرطة إن مدير المدرسة تم اتهامه بأنه عنصري من خلال تسجيل مزيف لصوته.
يقول الخبراء إن هذه القضية هي سبب آخر يجعل الجميع – وليس فقط السياسيين والمشاهير – قلقين بشأن هذه التكنولوجيا العميقة المزيفة القوية بشكل متزايد.
وقال هاني فريد، الأستاذ بجامعة كاليفورنيا في بيركلي، الذي يركز على الطب الشرعي الرقمي والمعلومات المضللة: “الجميع معرضون للهجوم، ويمكن لأي شخص أن يقوم بالهجوم”.
إليك ما يجب معرفته عن بعض أحدث استخدامات الذكاء الاصطناعي لإحداث الضرر:
إن معالجة الأصوات والصور المسجلة ليست بالأمر الجديد. لكن السهولة التي يستطيع بها شخص ما تغيير المعلومات هي ظاهرة حديثة. وكذلك القدرة على الانتشار بسرعة على وسائل التواصل الاجتماعي.
يعد المقطع الصوتي المزيف الذي ينتحل شخصية المدير مثالاً على مجموعة فرعية من الذكاء الاصطناعي المعروفة باسم الذكاء الاصطناعي التوليدي. يمكنه إنشاء صور ومقاطع فيديو ومقاطع صوتية جديدة شديدة الواقعية. لقد أصبح استخدامه أرخص وأسهل في السنوات الأخيرة، مما أدى إلى خفض الحاجز أمام أي شخص لديه اتصال بالإنترنت.
قال فريد، الأستاذ في بيركلي: “خلال العام الماضي على وجه الخصوص، يمكن لأي شخص – وأعني حقًا أي شخص – الذهاب إلى خدمة عبر الإنترنت. وإما مجانًا أو مقابل بضعة دولارات شهريًا، يمكنهم تحميل 30 ثانية من ملف شخص ما”. صوت.”
وقال فريد إن تلك الثواني يمكن أن تأتي من بريد صوتي أو منشور على وسائل التواصل الاجتماعي أو تسجيل خفي. تلتقط خوارزميات التعلم الآلي صوت الشخص. ويتم بعد ذلك إنشاء الكلام المستنسخ من الكلمات المكتوبة على لوحة المفاتيح.
وقال إن التكنولوجيا ستصبح أكثر قوة وأسهل في الاستخدام، بما في ذلك معالجة الفيديو.
وقالت السلطات في مقاطعة بالتيمور إن دازون دارين، المدير الرياضي في مدرسة بايكسفيل الثانوية، قام باستنساخ صوت المدير إريك إيزويرت.
وقالت الشرطة إن التسجيل المزيف يحتوي على تعليقات عنصرية ومعادية للسامية. وظهر الملف الصوتي في رسالة بريد إلكتروني في البريد الوارد لبعض المعلمين قبل أن ينتشر على وسائل التواصل الاجتماعي.
وقالت الشرطة إن التسجيل ظهر بعد أن أثار إيزويرت مخاوف بشأن أداء دارين في العمل وإساءة استخدام أموال المدرسة المزعومة.
وقالت السلطات إن الصوت المزيف أجبر إيزويرت على الذهاب في إجازة بينما كانت الشرطة تحرس منزله. غمرت المكالمات الهاتفية الغاضبة المدرسة، بينما تراكمت الرسائل المليئة بالكراهية على وسائل التواصل الاجتماعي.
وطلب المحققون من خبراء خارجيين تحليل التسجيل. وقال أحدهم إنه “يحتوي على آثار لمحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي مع تحرير بشري بعد وقوعه”، حسبما ذكرت سجلات المحكمة.
ووجد رأي ثانٍ لفريد، الأستاذ في بيركلي، أن “تسجيلات متعددة تم ربطها معًا”، وفقًا للسجلات.
وقال فريد لوكالة أسوشيتد برس إن الأسئلة لا تزال قائمة حول كيفية إنشاء هذا التسجيل بالضبط، ولم يؤكد أنه تم إنشاؤه بالكامل بواسطة الذكاء الاصطناعي.
ولكن بالنظر إلى القدرات المتنامية للذكاء الاصطناعي، قال فريد إن قضية ماريلاند لا تزال بمثابة “إشارة إنذار في منجم للفحم”، حول الحاجة إلى تنظيم هذه التكنولوجيا بشكل أفضل.
العديد من حالات التضليل التي أنشأها الذكاء الاصطناعي كانت صوتية.
ويرجع ذلك جزئيًا إلى تحسن التكنولوجيا بسرعة كبيرة. لا تستطيع الأذن البشرية أيضًا التعرف دائمًا على علامات التلاعب، في حين يسهل اكتشاف التناقضات في مقاطع الفيديو والصور.
يقول الخبراء إن بعض الأشخاص قاموا باستنساخ أصوات الأطفال الذين يُزعم أنهم مختطفون عبر الهاتف للحصول على أموال الفدية من الآباء. وتظاهر آخر بأنه الرئيس التنفيذي لشركة تحتاج إلى أموال بشكل عاجل.
خلال الانتخابات التمهيدية في نيو هامبشاير هذا العام، انتحلت المكالمات الآلية التي أنشأها الذكاء الاصطناعي صوت الرئيس جو بايدن وحاولت ثني الناخبين الديمقراطيين عن التصويت. يحذر الخبراء من تصاعد المعلومات المضللة التي ينتجها الذكاء الاصطناعي والتي تستهدف الانتخابات هذا العام.
لكن الاتجاهات المثيرة للقلق تتجاوز الصوت، مثل البرامج التي تنشئ صورا عارية مزيفة لأشخاص يرتدون ملابس دون موافقتهم، بما في ذلك القُصّر، كما يحذر الخبراء. تم استهداف المغنية تايلور سويفت مؤخرًا.
يقول معظم مقدمي تكنولوجيا توليد الصوت بالذكاء الاصطناعي إنهم يحظرون الاستخدام الضار لأدواتهم. لكن التنفيذ الذاتي يختلف.
يطلب بعض البائعين نوعًا من التوقيع الصوتي، أو يطلبون من المستخدمين قراءة مجموعة فريدة من الجمل قبل استنساخ الصوت.
شركات التكنولوجيا الكبرى، مثل شركة Meta الأم لفيسبوك وشركة OpenAI التي تصنع ChatGPT، لا تسمح إلا لمجموعة صغيرة من المستخدمين الموثوقين بتجربة التكنولوجيا بسبب مخاطر إساءة الاستخدام.
وقال فريد إنه يتعين القيام بالمزيد. على سبيل المثال، يجب على جميع الشركات أن تطلب من المستخدمين تقديم أرقام الهواتف وبطاقات الائتمان حتى يتمكنوا من تعقب الملفات إلى أولئك الذين يسيئون استخدام التكنولوجيا.
وهناك فكرة أخرى تتطلب أن تحمل التسجيلات والصور علامة مائية رقمية.
قال فريد: “يمكنك تعديل الصوت بطرق غير محسوسة للنظام السمعي البشري، ولكن بطريقة يمكن التعرف عليها من خلال جزء من البرنامج”.
وقالت ألكسندرا ريف جيفنز، الرئيس التنفيذي لمركز الديمقراطية والتكنولوجيا، إن التدخل الأكثر فعالية هو إجراءات إنفاذ القانون ضد الاستخدام الإجرامي للذكاء الاصطناعي. هناك حاجة أيضًا إلى المزيد من تثقيف المستهلك.
ويجب أن يكون التركيز الآخر هو الحث على السلوك المسؤول بين شركات الذكاء الاصطناعي ومنصات التواصل الاجتماعي. لكن الأمر ليس بهذه البساطة مثل حظر الذكاء الاصطناعي التوليدي.
وقال جيفنز، مستشهداً ببرامج الترجمة وقراءة الكتب: “قد يكون إضافة المسؤولية القانونية أمراً معقداً، لأنه في كثير من الحالات، قد تكون هناك استخدامات إيجابية أو مؤكدة للتكنولوجيا”.
وقال كريستيان ماتمان، مدير مجموعة استرجاع المعلومات وعلوم البيانات بجامعة جنوب كاليفورنيا، إن التحدي الآخر يتمثل في إيجاد اتفاق دولي بشأن الأخلاقيات والمبادئ التوجيهية.
قال ماتمان: “يستخدم الناس الذكاء الاصطناعي بشكل مختلف اعتمادًا على البلد الذي يعيشون فيه. ولا يتعلق الأمر بالحكومات فحسب، بل بالناس أيضًا. لذا فإن الثقافة مهمة.
___
ساهم مراسلو وكالة أسوشيتد برس علي سوينسون ومات أوبراين في كتابة هذا المقال.
[ad_2]
المصدر