الطريق إلى تنظيم الذكاء الاصطناعي محفوف بالمخاطر، لكنه الطريقة الوحيدة لتجنب الضرر

الطريق إلى تنظيم الذكاء الاصطناعي محفوف بالمخاطر، لكنه الطريقة الوحيدة لتجنب الضرر

[ad_1]

ابق على اطلاع بالتحديثات المجانية

الكاتب هو مدير السياسة الدولية في مركز السياسات السيبرانية بجامعة ستانفورد ومستشار خاص للمفوضية الأوروبية

لقد أوضحت ملحمة الذكاء الاصطناعي المفتوح بشكل لا لبس فيه أن المؤسسات الديمقراطية يجب أن تحكم أنظمة الذكاء الاصطناعي القوية. ولكن على النقيض من بعض التصريحات السطحية التي تشير إلى أنه يمكن للمرء أن يكون مؤيدًا أو معارضًا للتنظيم، فإن الشيطان يكمن في التفاصيل. هناك معارك حول الاتجاه الذي يجب أن يتخذه تنظيم الذكاء الاصطناعي وما هي المقايضات المقبولة. نحن نرى النقاش السياسي حول خيارات ما يجب تضمينه أو استبعاده في قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي يتكشف بينما نتحدث الآن.

هذا الأسبوع، سوف يقوم مفاوضو الاتحاد الأوروبي بوضع التفاصيل فيما من المقرر أن تكون الجولة النهائية من المفاوضات حول القانون التاريخي الذي يحكم الذكاء الاصطناعي. ومع ذلك فإن نسخة الاتحاد الأوروبي هي الأولى بين الديمقراطيات التي تتبنى تشريعات شاملة. ولكن على الرغم من التوافق السياسي الأولي حول القانون، يبدو أن الوفاق ينهار في اللحظة الأخيرة.

في الأصل، تم تصميم القانون لضمان التخفيف المتناسب للمخاطر عبر مجموعة من وظائف الذكاء الاصطناعي. على سبيل المثال، يتعين على الشركة التي تقدم خدمة الذكاء الاصطناعي لفحص المتقدمين للوظائف أو الجامعات أن تتخذ خطوات لمنع أنظمتها من الإضرار بشكل غير مبرر بوصول الأفراد. وستخضع أنظمة التعرف على الوجه لفحوصات أكثر صرامة بسبب حماية الخصوصية، وسيتم حظر بعض أقوى أنظمة الذكاء الاصطناعي مثل تسجيل الائتمان الاجتماعي تمامًا.

ولكن عندما تم إصدار ChatGPT وتطور الفهم العام للذكاء الاصطناعي للأغراض العامة، تزايدت الدعوات لتنظيم ذلك من خلال قانون الذكاء الاصطناعي أيضًا. النماذج الأساسية هي التكنولوجيا التي يمكنها أداء مهام مستقلة وتكون بمثابة الأساس للعديد من التطبيقات الأخرى للذكاء الاصطناعي. ويمكن استخدامها لإنشاء النصوص والصور والصوت أو تدريبها على أداء أي شيء بدءًا من التعرف على الوجه وحتى الإشراف على المحتوى. ونظراً لهذه الإمكانية التي لا حدود لها، فإن ترك نماذج المؤسسات خارج نطاق القانون سيكون بمثابة فرصة ضائعة لمنع الضرر. ويتناول الأمر التنفيذي للبيت الأبيض بشأن الذكاء الاصطناعي، فضلاً عن مدونة قواعد السلوك لمجموعة السبع، النماذج الأساسية أيضاً.

ومع ذلك، فإن فرنسا وإيطاليا وألمانيا تتراجع عن هذه الفكرة: فهي تشعر بالقلق من أنه إذا تم تنظيم النماذج الأساسية، فلن تتمكن شركات الذكاء الاصطناعي المحلية الناشئة لديها من اللحاق بالعمالقة الأمريكيين. ونظرا لتأثيرها البعيد المدى، فمن المفهوم أن دول مثل ألمانيا وفرنسا ترغب في تطوير قدرات الذكاء الاصطناعي السيادية ــ لكنها لا تزال مخطئة في معارضة تنظيمها.

تخيل كيف يمكن لخلل غير مكتشف في نموذج الأساس أن ينتشر إلى آلاف المستخدمين النهائيين الذين يقومون بإنشاء تطبيقات باستخدام النموذج. هل من العدل محاسبة إحدى الشركات على استخدام منتج شركة أخرى؟ لا عجب أن تشعر جمعيات الشركات الصغيرة والمتوسطة بالقلق بشأن تكلفة الامتثال بالنسبة لأصغر الجهات الفاعلة في سلسلة القيمة.

ومن الأفضل أن يكون الأقوى هو الأكثر مسؤولية. إذا تُركت شركات مثل Open AI، وAnthropic، وGoogle DeepMind لأجهزتها الخاصة، فلن يتم التدقيق بشكل مستقل في تركيز السوق، وتآكل الخصوصية، والمخاوف المتعلقة بالسلامة. لماذا لا نعالج المشكلة من جذورها ونبني نظامًا بيئيًا من الثقة؟ ليس فقط أن خضوع أقوى الشركات للرقابة هو أرخص بكثير بشكل عام، بل يكاد يكون من المستحيل أيضًا فك تشابك البيانات والنماذج والتعديلات الخوارزمية بأثر رجعي.

وعلى الجانب الإيجابي، ينبغي للشركات أيضًا أن تستفيد من الرقابة التي تم التحقق منها في قطاع لا يزال يعاني من مشاكل السلامة والتمييز والتزييف والهلوسة (طريقة لطيفة لقول أكاذيب الذكاء الاصطناعي).

ويقترح مفاوضو الاتحاد الأوروبي المشاركون في قانون الذكاء الاصطناعي نهجا متدرجا لفرض قيود على النماذج الأساسية، بحيث يكون مستوى التنظيم تدريجيا، بما يتناسب مع تأثير النماذج. وهذا يعني أن عددًا صغيرًا فقط من الشركات سوف يدخل ضمن نطاقه، مما يسمح للشركات الأخرى بالنمو قبل أن تتعرض للتنظيم. وبما أن النماذج الأساسية لا تزال تتطور، فإن القواعد الجديدة يجب أن تترك مجالاً للتعديل مع تغير التكنولوجيا.

وليس من المستغرب أن تكون المراحل النهائية للمفاوضات هي الأكثر صعوبة – فهذا هو الحال دائما. يبدو أن أولئك الذين يشعرون بالقلق من أن التوترات قد تؤدي إلى نهاية قانون الذكاء الاصطناعي لا يدركون كيف ستتطور المعارك التشريعية. بالنسبة لجميع أصحاب المصلحة في الاتحاد الأوروبي، هناك الكثير على المحك والعالم يراقب ليرى القانون الذي سيصوت عليه الاتحاد الأوروبي في نهاية المطاف. دعونا نأمل أن يتمكن الزعماء السياسيون من الاتفاق على مجموعة من القواعد المقاومة للمستقبل. ومع القوة التكنولوجية الكبيرة، يجب أن تأتي مسؤولية كبيرة، بغض النظر عما إذا كان المهندسون الفرنسيون أو الأمريكيون أو الألمان هم من قاموا ببناء النظام.

[ad_2]

المصدر