بدء تخصيب اليورانيوم في مشروع تجريبي مدعوم اتحاديًا في ولاية أوهايو

وتقول مايكروسوفت إن المنافسين الأمريكيين بدأوا في استخدام الذكاء الاصطناعي التوليدي في العمليات السيبرانية الهجومية

[ad_1]

بوسطن – قالت مايكروسوفت يوم الأربعاء إنها اكتشفت وعطلت حالات لخصوم الولايات المتحدة – وخاصة إيران وكوريا الشمالية وبدرجة أقل روسيا والصين – يستخدمون أو يحاولون استغلال الذكاء الاصطناعي التوليدي الذي طورته الشركة وشريكها التجاري للتركيب أو البحث. العمليات السيبرانية الهجومية.

وقالت شركة ريدموند بواشنطن في تدوينة إن التقنيات التي لاحظتها مايكروسوفت، بالتعاون مع شريكتها OpenAI، تمثل تهديدًا ناشئًا ولم تكن “جديدة أو فريدة بشكل خاص”.

لكن المدونة تقدم نظرة ثاقبة حول كيفية استخدام المنافسين الجيوسياسيين للولايات المتحدة لنماذج واسعة النطاق لتوسيع قدرتهم على اختراق الشبكات بشكل أكثر فعالية وإجراء عمليات التأثير.

وقالت مايكروسوفت إن “الهجمات” كشفت عن نماذج كبيرة الحجم يمتلكها الشركاء، وقالت إنه من المهم الكشف عنها علنًا حتى لو كانت “خطوات تدريجية في مرحلة مبكرة”.

لقد استخدمت شركات الأمن السيبراني منذ فترة طويلة التعلم الآلي في مجال الدفاع، وذلك في المقام الأول للكشف عن السلوكيات الشاذة في الشبكات. لكن المجرمين والمتسللين الهجوميين يستخدمونها أيضًا، وقد أدى إدخال نماذج اللغات الكبيرة بقيادة ChatGPT من OpenAI إلى تعزيز لعبة القط والفأر هذه.

استثمرت مايكروسوفت مليارات الدولارات في OpenAI، وتزامن إعلان الأربعاء مع إصدارها لتقرير يشير إلى أنه من المتوقع أن يعزز الذكاء الاصطناعي التوليدي الهندسة الاجتماعية الضارة، مما يؤدي إلى عمليات تزييف عميقة أكثر تعقيدًا واستنساخ صوتي. تهديد للديمقراطية في عام ستجري فيه أكثر من 50 دولة انتخابات، مما يؤدي إلى تضخيم المعلومات المضللة وما يحدث بالفعل،

فيما يلي بعض الأمثلة التي قدمتها Microsoft. في كل حالة، تم تعطيل جميع حسابات الذكاء الاصطناعي وأصول المجموعات المذكورة:

– استخدمت مجموعة التجسس الإلكتروني في كوريا الشمالية المعروفة باسم كيمسوكي هذه النماذج للبحث في مؤسسات الفكر والرأي الأجنبية التي تدرس البلاد، ولإنشاء محتوى من المحتمل أن يستخدم في حملات القرصنة والتصيد الاحتيالي.

— استخدم الحرس الثوري الإيراني نماذج اللغات الكبيرة للمساعدة في الهندسة الاجتماعية، وفي استكشاف الأخطاء البرمجية وإصلاحها، وحتى في دراسة كيف يمكن للمتسللين تجنب اكتشافهم في شبكة مخترقة. يتضمن ذلك إنشاء رسائل بريد إلكتروني تصيدية “بما في ذلك رسالة تتظاهر بأنها قادمة من وكالة تنمية دولية وأخرى تحاول جذب ناشطات بارزات في مجال حقوق المرأة إلى موقع ويب أنشأه مهاجمون حول الحركة النسائية”. يساعد الذكاء الاصطناعي على تسريع وتعزيز إنتاج البريد الإلكتروني.

– استخدمت وحدة الاستخبارات العسكرية الروسية GRU المعروفة باسم Fancy Bear النماذج للبحث في تقنيات الأقمار الصناعية والرادار التي قد تكون ذات صلة بالحرب في أوكرانيا.

– مجموعة التجسس السيبراني الصينية المعروفة باسم أكواتيك باندا – والتي تستهدف مجموعة واسعة من الصناعات والتعليم العالي والحكومات من فرنسا إلى ماليزيا – تفاعلت مع النماذج “بطرق تشير إلى استكشاف محدود لكيفية قيام حاملي شهادة الماجستير في القانون بتعزيز عملياتهم الفنية”.

– المجموعة الصينية مافريك باندا، التي استهدفت مقاولي الدفاع الأمريكيين من بين قطاعات أخرى لأكثر من عقد من الزمان، كان لديها تفاعلات مع نماذج كبيرة اللغة مما يشير إلى أنها كانت تقوم بتقييم فعاليتها كمصدر للمعلومات “حول موضوعات قد تكون حساسة، وأفراد بارزين، الجغرافيا السياسية الإقليمية والنفوذ الأمريكي والشؤون الداخلية.

في مدونة منفصلة نُشرت يوم الأربعاء، قالت OpenAI إن التقنيات المكتشفة كانت متسقة مع التقييمات السابقة التي وجدت أن نموذج الدردشة الحالي GPT-4 الخاص بها لا يقدم سوى “قدرات محدودة ومتزايدة لمهام الأمن السيبراني الضارة بما يتجاوز ما يمكن تحقيقه بالفعل من خلال البرامج المتاحة للجمهور والتي لا تعتمد على الذكاء الاصطناعي”. أدوات.”

في إبريل/نيسان الماضي، صرحت مديرة وكالة الأمن السيبراني وأمن البنية التحتية الأميركية، جين إيسترلي، للكونجرس بأن “هناك تهديدين وتحديين محددين للعصر. أحدهما هو الصين، والآخر هو الذكاء الاصطناعي”.

وقال إيسترلي في ذلك الوقت إن الولايات المتحدة بحاجة إلى ضمان بناء الذكاء الاصطناعي مع أخذ الأمن في الاعتبار.

يؤكد منتقدو الإصدار العام لـ ChatGPT في نوفمبر 2022 – والإصدارات اللاحقة من قبل المنافسين بما في ذلك Google و Meta – أنه كان متسرعًا بشكل غير مسؤول، مع الأخذ في الاعتبار أن الأمن كان إلى حد كبير فكرة لاحقة في تطويرهم.

وقال أميت يوران، الرئيس التنفيذي لشركة الأمن السيبراني Tenable: “بالطبع، تستخدم الجهات الفاعلة السيئة نماذج لغة كبيرة – وقد تم اتخاذ هذا القرار عندما تم فتح Pandora’s Box”.

يشكو بعض المتخصصين في مجال الأمن السيبراني من إنشاء Microsoft وترويجها لأدوات لمعالجة نقاط الضعف في نماذج اللغات الكبيرة في حين أنها قد تركز بشكل أكثر مسؤولية على جعلها أكثر أمانًا.

تساءل غاري ماكجرو، الخبير المخضرم في مجال أمن الكمبيوتر والمؤسس المشارك لمعهد بيريفيل للتعلم الآلي: “لماذا لا نقوم بإنشاء نماذج تأسيسية أكثر أمانًا للصندوق الأسود (LLM) بدلاً من بيع أدوات دفاعية لمشكلة يساعدون في خلقها؟”

قال الأستاذ بجامعة نيويورك وكبير ضباط الأمن السابق في شركة AT&T، إدوارد أموروسو، إنه على الرغم من أن استخدام الذكاء الاصطناعي ونماذج اللغات الكبيرة قد لا يشكل تهديدًا واضحًا على الفور، إلا أنه “سيصبح في النهاية أحد أقوى الأسلحة في هجوم كل جيش دولة قومية”.

[ad_2]

المصدر