[ad_1]
لندن – تواجه قواعد الذكاء الاصطناعي في الاتحاد الأوروبي، التي تم الترحيب بها باعتبارها الأولى من نوعها في العالم، لحظة حاسمة حيث يحاول المفاوضون التوصل إلى التفاصيل النهائية هذا الأسبوع – المحادثات التي تعقدت بسبب الارتفاع المفاجئ للذكاء الاصطناعي التوليدي الذي ينتج أعمالًا تشبه الإنسان .
تم اقتراح قانون الذكاء الاصطناعي للاتحاد الأوروبي لأول مرة في عام 2019، وكان من المتوقع أن يكون أول لوائح شاملة للذكاء الاصطناعي في العالم، مما يعزز مكانة الكتلة المكونة من 27 دولة باعتبارها رائدة عالمية عندما يتعلق الأمر بكبح جماح صناعة التكنولوجيا.
لكن العملية تعثرت بسبب معركة اللحظة الأخيرة حول كيفية التحكم في الأنظمة التي تدعم خدمات الذكاء الاصطناعي للأغراض العامة مثل ChatGPT من OpenAI وBard chatbot من Google. وتمارس شركات التكنولوجيا الكبرى ضغوطا ضد ما تعتبره الإفراط في التنظيم الذي يخنق الابتكار، في حين يريد المشرعون الأوروبيون ضمانات إضافية لأنظمة الذكاء الاصطناعي المتطورة التي تطورها تلك الشركات.
وفي الوقت نفسه، انضمت الولايات المتحدة والمملكة المتحدة والصين والتحالفات العالمية مثل مجموعة الدول السبع ذات الديمقراطيات الكبرى إلى السباق لوضع حواجز أمام التكنولوجيا سريعة التطور، وهو ما أكدته تحذيرات الباحثين وجماعات حقوق الإنسان من المخاطر الوجودية التي يشكلها الذكاء الاصطناعي التوليدي على البشرية. فضلا عن المخاطر التي تهدد الحياة اليومية.
وقال نيك راينيرز، محلل سياسات التكنولوجيا في مجموعة أوراسيا: “بدلاً من أن يصبح قانون الذكاء الاصطناعي هو المعيار الذهبي العالمي لتنظيم الذكاء الاصطناعي، هناك فرصة ضئيلة ولكن فرصة متزايدة لعدم الموافقة عليه قبل انتخابات البرلمان الأوروبي” العام المقبل. شركة استشارية للمخاطر السياسية.
وقال “ببساطة هناك الكثير مما يجب تحديده” فيما يأمل المسؤولون أن تكون جولة أخيرة من المحادثات يوم الأربعاء. وقال راينر إنه حتى لو عملوا في وقت متأخر من الليل كما هو متوقع، فقد يضطرون إلى الانتهاء من العمل في العام الجديد.
عندما كشفت المفوضية الأوروبية، الذراع التنفيذية للاتحاد الأوروبي، عن المسودة في عام 2021، بالكاد ذكرت أنظمة الذكاء الاصطناعي للأغراض العامة مثل روبوتات الدردشة. كان المقصود في الأساس من اقتراح تصنيف أنظمة الذكاء الاصطناعي حسب أربعة مستويات من المخاطر – من الحد الأدنى إلى غير المقبول – أن يكون بمثابة تشريع لسلامة المنتج.
أرادت بروكسل اختبار واعتماد المعلومات التي تستخدمها الخوارزميات التي تدعم الذكاء الاصطناعي، تمامًا مثل فحوصات سلامة المستهلك على مستحضرات التجميل والسيارات والألعاب.
تغير ذلك مع ازدهار الذكاء الاصطناعي التوليدي، الذي أثار الدهشة من خلال تأليف الموسيقى وإنشاء الصور وكتابة المقالات التي تشبه العمل البشري. كما أثار ذلك مخاوف من إمكانية استخدام هذه التكنولوجيا لشن هجمات إلكترونية ضخمة أو إنشاء أسلحة بيولوجية جديدة.
دفعت المخاطر المشرعين في الاتحاد الأوروبي إلى تعزيز قانون الذكاء الاصطناعي من خلال توسيع نطاقه ليشمل النماذج الأساسية. تُعرف هذه الأنظمة أيضًا باسم نماذج اللغات الكبيرة، ويتم تدريبها على مجموعات كبيرة من الأعمال المكتوبة والصور الملتقطة من الإنترنت.
تمنح النماذج الأساسية أنظمة الذكاء الاصطناعي التوليدية، مثل ChatGPT، القدرة على إنشاء شيء جديد، على عكس الذكاء الاصطناعي التقليدي، الذي يعالج البيانات ويكمل المهام باستخدام قواعد محددة مسبقًا.
وقد عززت الفوضى التي حدثت الشهر الماضي في شركة OpenAI المدعومة من مايكروسوفت، والتي قامت ببناء أحد أشهر نماذج الأساس، GPT-4، بالنسبة لبعض القادة الأوروبيين مخاطر السماح لعدد قليل من شركات الذكاء الاصطناعي المهيمنة بمراقبة نفسها.
وبينما تم إقالة الرئيس التنفيذي سام ألتمان وإعادة تعيينه بسرعة، غادر بعض أعضاء مجلس الإدارة الذين لديهم تحفظات عميقة حول مخاطر السلامة التي يفرضها الذكاء الاصطناعي، مما يشير إلى أن حوكمة شركات الذكاء الاصطناعي يمكن أن تقع فريسة لديناميكيات مجلس الإدارة.
وقال المفوض الأوروبي تييري بريتون في مؤتمر للذكاء الاصطناعي في فرنسا بعد أيام من الاضطرابات: “على الأقل أصبحت الأمور واضحة الآن” أن شركات مثل OpenAI تدافع عن أعمالها وليس عن المصلحة العامة.
جاءت مقاومة القواعد الحكومية لأنظمة الذكاء الاصطناعي هذه من مكان غير متوقع: فرنسا وألمانيا وإيطاليا. وقد ردت الاقتصادات الثلاثة الأكبر في الاتحاد الأوروبي بورقة موقف تدعو إلى التنظيم الذاتي.
واعتبر هذا التغيير بمثابة خطوة لمساعدة شركات الذكاء الاصطناعي المحلية مثل الشركة الفرنسية الناشئة Mistral AI والشركة الألمانية Aleph Alpha.
وقال راينر إن وراء ذلك “تصميم على عدم السماح للشركات الأمريكية بالسيطرة على النظام البيئي للذكاء الاصطناعي كما فعلت في الموجات السابقة من التقنيات مثل السحابة (الحوسبة) والتجارة الإلكترونية ووسائل التواصل الاجتماعي”.
ونشرت مجموعة من علماء الكمبيوتر المؤثرين رسالة مفتوحة تحذر من أن إضعاف قانون الذكاء الاصطناعي بهذه الطريقة سيكون بمثابة “فشل تاريخي”. في هذه الأثناء، تشاجر المسؤولون التنفيذيون في شركة ميسترال عبر الإنترنت مع باحث من منظمة غير ربحية يدعمها إيلون موسك تهدف إلى منع “المخاطر الوجودية” من الذكاء الاصطناعي.
وقال كينت ووكر، كبير المسؤولين القانونيين في جوجل، في خطاب ألقاه في بروكسل الأسبوع الماضي، إن الذكاء الاصطناعي “مهم للغاية بحيث لا يمكن تنظيمه، ومن المهم للغاية ألا يتم تنظيمه بشكل جيد”. “يجب أن يكون السباق على أفضل لوائح الذكاء الاصطناعي، وليس على اللوائح الأولى للذكاء الاصطناعي.”
وقالت إيفيرنا ماكجوان، مديرة المركز، إن نماذج الأساس المستخدمة لمجموعة واسعة من المهام، تثبت أنها القضية الشائكة بالنسبة لمفاوضي الاتحاد الأوروبي لأن تنظيمها “يتعارض مع منطق القانون بأكمله”، والذي يعتمد على المخاطر التي تشكلها استخدامات محددة. مكتب أوروبا في مركز الديمقراطية والتكنولوجيا غير الربحي للحقوق الرقمية.
وقالت إن طبيعة أنظمة الذكاء الاصطناعي للأغراض العامة تعني “أنك لا تعرف كيفية تطبيقها”. وقال ماكجوان إنه في الوقت نفسه، هناك حاجة إلى لوائح تنظيمية “لأنه بخلاف ذلك، لن تكون هناك مساءلة في السلسلة الغذائية” عندما تقوم شركات أخرى ببناء الخدمات معهم.
اقترح ألتمان إنشاء وكالة أمريكية أو عالمية لترخيص أقوى أنظمة الذكاء الاصطناعي. واقترح هذا العام أن شركة OpenAI يمكن أن تغادر أوروبا إذا لم تتمكن من الامتثال لقواعد الاتحاد الأوروبي، لكنه سرعان ما تراجع عن تلك التعليقات.
وقال ألف ألفا إن “هناك حاجة إلى نهج متوازن” ودعم نهج الاتحاد الأوروبي القائم على المخاطر. لكن هذا “لا ينطبق” على النماذج الأساسية، التي تحتاج إلى لوائح “أكثر مرونة وديناميكية”، حسبما ذكرت شركة الذكاء الاصطناعي الألمانية.
لا يزال يتعين على مفاوضي الاتحاد الأوروبي حل بعض النقاط الأخرى المثيرة للجدل، بما في ذلك اقتراح الحظر الكامل للتعرف على الوجه العام في الوقت الفعلي. تريد الدول الحصول على إعفاء حتى تتمكن سلطات إنفاذ القانون من استخدامه للعثور على الأطفال المفقودين أو الإرهابيين، لكن الجماعات الحقوقية تشعر بالقلق من أن ذلك سيخلق أساسًا قانونيًا فعالاً للمراقبة.
تواجه فروع الحكومة الثلاثة في الاتحاد الأوروبي إحدى فرصها الأخيرة للتوصل إلى اتفاق يوم الأربعاء.
وحتى لو فعلوا ذلك، فلا يزال يتعين على مشرعي الكتلة البالغ عددهم 705 مشرعين التوقيع على النسخة النهائية. ويجب أن يتم هذا التصويت بحلول أبريل/نيسان، قبل أن يبدأوا الحملة الانتخابية على مستوى الاتحاد الأوروبي في يونيو/حزيران. ولن يدخل القانون حيز التنفيذ قبل فترة انتقالية، عادة ما تكون عامين.
إذا لم يتمكنوا من القيام بذلك في الوقت المناسب، فسيتم تأجيل التشريع حتى وقت لاحق من العام المقبل – بعد تولي زعماء الاتحاد الأوروبي الجدد، الذين قد تكون لديهم وجهات نظر مختلفة حول الذكاء الاصطناعي، مناصبهم.
وقال دراجوس تودوراتشي، وهو مشرع روماني يشارك في قيادة مفاوضات قانون الذكاء الاصطناعي في البرلمان الأوروبي، في إحدى اللجان: “هناك فرصة جيدة لأن يكون هذا بالفعل الأخير، ولكن هناك فرصة متساوية لأننا سنظل بحاجة إلى مزيد من الوقت للتفاوض”. مناقشة الأسبوع الماضي.
وقال مكتبه إنه غير متاح لإجراء مقابلة.
وقال في هذا الحدث الذي أقيم في بروكسل: “لا تزال المحادثة سلسة للغاية. سنبقيكم في حالة تخمين حتى اللحظة الأخيرة”.
[ad_2]
المصدر