[ad_1]
في سابقة هي الأولى من نوعها على مستوى العالم، أصدر الاتحاد الأوروبي تشريعا لتنظيم الذكاء الاصطناعي، لكن في حين يجادل البعض بأنه لا يذهب إلى حد كاف، يقول آخرون إنه قد يضر الشركات من خلال “قيود إضافية”.
إعلان
سارع صناع السياسات في أوروبا إلى وضع قواعد وتحذيرات لشركات التكنولوجيا منذ إطلاق ChatGPT، وكان هذا الأسبوع حاسما في وضع قواعد الذكاء الاصطناعي في الاتحاد الأوروبي.
وافق البرلمان الأوروبي يوم الأربعاء على قانون الذكاء الاصطناعي، الذي يتخذ نهجًا قائمًا على المخاطر لضمان قيام الشركات بإطلاق المنتجات التي تتوافق مع القانون قبل إتاحتها للجمهور.
وبعد يوم واحد، طلبت المفوضية الأوروبية من شركات Bing، وFacebook، وGoogle Search، وInstagram، وSnapchat، وTikTok، وYouTube، وX، بموجب تشريع منفصل، توضيح كيفية كبحها لمخاطر الذكاء الاصطناعي التوليدي.
في حين أن الاتحاد الأوروبي يشعر بالقلق في الغالب بشأن هلوسة الذكاء الاصطناعي (عندما ترتكب النماذج أخطاء وتختلق الأشياء)، والانتشار الفيروسي للتزييف العميق، والتلاعب الآلي بالذكاء الاصطناعي الذي يمكن أن يضلل الناخبين في الانتخابات، فإن مجتمع التكنولوجيا لديه مخاوفه الخاصة من التشريعات. بينما يقول بعض الباحثين إنها لا تذهب إلى حد كافٍ.
احتكارات التكنولوجيا
وقال ماكس فون ثون، مدير أوروبا في معهد الأسواق المفتوحة، إنه في حين أن بروكسل تستحق “ائتمانا حقيقيا” لكونها الولاية القضائية الأولى على مستوى العالم التي تمرر التنظيم الذي يخفف من مخاطر الذكاء الاصطناعي العديدة، إلا أن هناك العديد من المشاكل في الاتفاقية النهائية.
وقال ليورونيوز نكست إن هناك “ثغرات كبيرة أمام السلطات العامة” و”تنظيم ضعيف نسبياً لأكبر نماذج المؤسسات التي تشكل الضرر الأكبر”.
النماذج الأساسية هي نماذج للتعلم الآلي يتم تدريبها على البيانات ويمكن استخدامها لأداء مجموعة من المهام، مثل كتابة قصيدة، على سبيل المثال. ChatGPT هو نموذج أساسي.
ومع ذلك، فإن القلق الأكبر لفون ثون هو احتكارات التكنولوجيا.
وقال: “إن قانون الذكاء الاصطناعي غير قادر على معالجة التهديد الأول الذي يشكله الذكاء الاصطناعي حاليًا: وهو دوره في زيادة وترسيخ القوة القصوى التي تتمتع بها بعض شركات التكنولوجيا المهيمنة بالفعل في حياتنا الشخصية، واقتصاداتنا، وديمقراطياتنا”.
وبالمثل، قال إن المفوضية الأوروبية يجب أن تكون حذرة من الانتهاكات الاحتكارية في النظام البيئي للذكاء الاصطناعي.
“يجب على الاتحاد الأوروبي أن يفهم أن حجم المخاطر التي يفرضها الذكاء الاصطناعي يرتبط ارتباطًا وثيقًا بحجم وقوة الشركات المهيمنة التي تقوم بتطوير هذه التقنيات ونشرها. وقال فون ثون: “لا يمكنك التعامل بنجاح مع الأول حتى تعالج الأخير”.
أصبح تهديد احتكارات الذكاء الاصطناعي تحت الأضواء الشهر الماضي بعد أن تبين أن الشركة الفرنسية الناشئة ميسترال للذكاء الاصطناعي كانت في شراكة مع مايكروسوفت.
بالنسبة للبعض في الاتحاد الأوروبي، كان الأمر بمثابة صدمة لأن فرنسا ضغطت من أجل تقديم تنازلات لقانون الذكاء الاصطناعي للشركات مفتوحة المصدر مثل ميسترال.
“لحظة تاريخية”
لكن العديد من الشركات الناشئة رحبت بالوضوح الذي جلبته اللائحة الجديدة.
وقال أليكس كومبيسي، المؤسس المشارك والرئيس التنفيذي لشركة Giskard الفرنسية للذكاء الاصطناعي مفتوح المصدر: “إن اعتماد برلمان الاتحاد الأوروبي النهائي لقانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي يعد لحظة تاريخية ويبعث على الارتياح”.
وقال ليورونيوز نكست: “بينما يفرض القانون قيودًا وقواعد إضافية على مطوري أنظمة الذكاء الاصطناعي ونماذج الأساس عالية المخاطر، والتي تعتبر” مخاطر نظامية “، فإننا واثقون من إمكانية تنفيذ هذه الضوابط والتوازنات بشكل فعال”.
وقال: “إن هذه اللحظة التاريخية تمهد الطريق لمستقبل يتم فيه تسخير الذكاء الاصطناعي بشكل مسؤول، وتعزيز الثقة وضمان سلامة الجميع”.
يعمل التشريع من خلال التمييز بين المخاطر التي تفرضها النماذج التأسيسية، والتي تعتمد على القوة الحاسوبية التي تدربها. يتم تنظيم منتجات الذكاء الاصطناعي التي تتجاوز عتبة قوة الحوسبة بشكل أكثر صرامة.
إعلان
ويُنظر إلى التصنيف كنقطة انطلاق ويمكن للجنة، مثل التعاريف الأخرى، أن تراجعه.
“الصالح العام”
ولكن ليس الجميع على متن الطائرة مع التصنيف.
قالت كاثرينا زوغل، مديرة السياسات: “من وجهة نظري، يجب تصنيف أنظمة الذكاء الاصطناعي المستخدمة في مجال المعلومات على أنها عالية المخاطر، مما يتطلب منها الالتزام بقواعد أكثر صرامة، وهو ما لا ينطبق صراحةً على قانون الذكاء الاصطناعي المعتمد في الاتحاد الأوروبي”. في منتدى المعلومات والديمقراطية.
وقالت ليورونيوز نيكست: “يمكن للمفوضية، التي لديها القدرة على تعديل حالات استخدام الأنظمة عالية المخاطر، أن تذكر صراحة أن أنظمة الذكاء الاصطناعي المستخدمة في مجال المعلومات عالية المخاطر مع الأخذ في الاعتبار تأثيرها على الحقوق الأساسية”.
“لا يمكن للشركات الخاصة أن تكون الوحيدة التي تقود مستقبلنا المشترك. وأضافت: “يجب أن يكون الذكاء الاصطناعي منفعة عامة”.
إعلان
لكن آخرين يجادلون بأن الشركات تحتاج أيضًا إلى إبداء كلمتها وأن تكون قادرة على العمل مع الاتحاد الأوروبي.
“من المهم أن يستغل الاتحاد الأوروبي ديناميكية القطاع الخاص، الذي سيكون القوة الدافعة وراء مستقبل الذكاء الاصطناعي. وقالت جولي لين تيجلاند، الشريك الإداري في أوروبا والشرق الأوسط والهند وأفريقيا في EY: “إن تنفيذ هذا الأمر بشكل صحيح سيكون مهمًا لجعل أوروبا أكثر تنافسية وجاذبية للمستثمرين”.
ومع ذلك، قالت إن الشركات في الاتحاد الأوروبي وخارجه يجب أن تكون استباقية وتستعد لدخول القانون حيز التنفيذ، وهو ما يعني “اتخاذ خطوات لضمان أن لديها مخزون محدث من أنظمة الذكاء الاصطناعي التي تقوم بتطويرها أو نشرها، وتحديد موقعهم في سلسلة قيمة الذكاء الاصطناعي لفهم مسؤولياتهم القانونية”.
“طعم حلو ومر”
بالنسبة للشركات الناشئة والمؤسسات الصغيرة والمتوسطة الحجم، قد يعني ذلك الكثير من العمل.
وقالت ماريان توردو بيتكر، مديرة الشؤون العامة في فرانس ديجيتال: “هذا القرار له طعم حلو ومر”.
إعلان
“في حين أن قانون الذكاء الاصطناعي يستجيب لتحدي كبير فيما يتعلق بالشفافية والأخلاق، فإنه مع ذلك يفرض التزامات كبيرة على جميع الشركات التي تستخدم أو تعمل على تطوير الذكاء الاصطناعي، على الرغم من بعض التعديلات المخطط لها بالنسبة للشركات الناشئة والشركات الصغيرة والمتوسطة، ولا سيما من خلال بيئة الحماية التنظيمية.
وأضافت: “نخشى أن يخلق النص ببساطة حواجز تنظيمية إضافية ستفيد المنافسة الأمريكية والصينية، وتقلل من فرص ظهور أبطال الذكاء الاصطناعي الأوروبيين”.
'التنفيذ الفعال'
ولكن على الرغم من أن قانون الذكاء الاصطناعي قد تم إنجازه، فإن تنفيذه هو التحدي التالي.
“والآن يتحول التركيز إلى التنفيذ والإنفاذ الفعالين. وقال ريستو أوك، قائد أبحاث الاتحاد الأوروبي في معهد مستقبل الحياة غير الربحي، ليورونيوز نيكست: “يتطلب هذا أيضًا اهتمامًا متجددًا بالتشريعات التكميلية”.
وتشمل هذه التشريعات التكميلية توجيه مسؤولية الذكاء الاصطناعي، الذي يهدف إلى مساعدة مطالبات المسؤولية عن الأضرار الناجمة عن المنتجات والخدمات التي تدعم الذكاء الاصطناعي، ومكتب الاتحاد الأوروبي للذكاء الاصطناعي، الذي يهدف إلى تبسيط عملية إنفاذ القواعد.
إعلان
“إن الأشياء الأساسية للتأكد من أن القانون يستحق الورق الذي كتب عليه هو أن مكتب الذكاء الاصطناعي لديه الموارد اللازمة لأداء المهام التي تم تعيينها له وأن قواعد الممارسات الخاصة بالذكاء الاصطناعي للأغراض العامة تمت صياغتها بشكل جيد مع تضمين الحقوق المدنية. قال المجتمع.
[ad_2]
المصدر