[ad_1]
تم تصوير الروبوت البشري “Rmeca” في القمة العالمية للذكاء الاصطناعي من أجل الخير، في جنيف، سويسرا، في 6 يوليو 2023. بيير ألبوي / رويترز
ليست شركات OpenAI وGoogle وMicrosoft وMeta هي الشركات الوحيدة التي تتسابق للعب أدوار قيادية في مجال الذكاء الاصطناعي (AI). ويتنافس الزعماء السياسيون أيضاً مع بعضهم البعض لإنشاء أطر ــ وتعزيز ــ للبرمجيات القادرة على أداء المهام البشرية، مثل مولدات النصوص والصور ChatGPT وMidjourney. ويأمل الاتحاد الأوروبي، يوم الثلاثاء 24 أكتوبر/تشرين الأول، في التوصل إلى اتفاق سياسي بشأن قانون الذكاء الاصطناعي، أو على الأقل التوصل إلى حل وسط بشأن النقاط الرئيسية في مشروع اللائحة هذا.
ثم، في الأول والثاني من نوفمبر/تشرين الثاني، سيرحب رئيس الوزراء البريطاني ريشي سوناك بممثلي الحكومات الأجنبية وعمالقة التكنولوجيا في لندن لحضور “قمة دولية لسلامة الذكاء الاصطناعي”. وفي وقت لاحق من شهر نوفمبر/تشرين الثاني، سوف تجتمع دول مجموعة السبع في اجتماع حول “عملية هيروشيما”، وهي مناقشة حول الذكاء الاصطناعي بدأت في اليابان في مايو/أيار.
ويوضح هذا التقارب الشعور بالإلحاح السياسي للسيطرة على التكنولوجيا التي تعتبر واعدة ومثيره للقلق في آن واحد. ولكن في ظل هذا الجنون ــ حيث تنشط الولايات المتحدة ومنظمة التعاون الاقتصادي والتنمية والصين ــ فإن الاستراتيجيات تختلف.
وتتباين المقاربات الأوروبية والبريطانية
في عام 2021، أطلقت بروكسل أول مشروع تشريعي كبير في العالم بشأن الذكاء الاصطناعي: يحظر قانون الذكاء الاصطناعي استخدامات معينة (“أنظمة التصنيف الاجتماعي”، و”التقنيات اللاشعورية” للتلاعب)، والاستخدامات التي تعتبر “عالية الخطورة” (القيادة الذاتية، واستئناف الفحص). (منح القروض المصرفية) يفرض التزامات، مثل تقليل معدلات الخطأ والتحيزات التمييزية، والتحقق من جودة بيانات التدريب، وما إلى ذلك.
اقرأ المزيد Article réservé à nos abonnés يقول قادة الصناعة إن الذكاء الاصطناعي قد يكون خطيرًا مثل “الأوبئة أو الحرب النووية”
فيما يتعلق بالنقطة المثيرة للجدل المتمثلة في نماذج الذكاء الاصطناعي “ذات الأغراض العامة” (مثل تلك التي تولد النصوص أو الصور)، فإن طريق التسوية بين البرلمان الأوروبي والدول الأعضاء يتكون من فرض التزامات على النماذج الأكبر (أعلى من عتبة الحوسبة المستخدمة ل التدريب، أو عدد من المستخدمين أو العملاء من الشركات في الاتحاد الأوروبي، وفقًا لوثيقة استشهد بها موقع contexte). ويجب على مصنعي البرمجيات أيضًا التأكد من أنهم اتخذوا الخطوات اللازمة لاحترام “حقوق الطبع والنشر” للمحتوى المستخدم للتدريب.
أما لندن، التي تريد أن تصبح عاصمة للذكاء الاصطناعي، فقد اختارت التركيز على المخاطر التي تعتبرها الأكثر وجودية. ووفقاً لمسودة إعلان مشترك صادر عن القمة، راجعته يوراكتيف، فإن هذه الأمور مرتبطة بـ “سوء الاستخدام المتعمد” – لتوليد هجمات كمبيوتر أو أسلحة بيولوجية – أو “قضايا السيطرة” على الذكاء الاصطناعي الذي يمكن أن يفلت من البشر. ويذكرنا هذا البيان بالرسائل المثيرة للقلق التي تدعو إلى “إيقاف الذكاء الاصطناعي مؤقتا”، أو اعتباره خطيرا مثل “الأوبئة أو الحرب النووية”.
ويتطابق النهج البريطاني أيضًا مع خطاب عمالقة الصناعة: تركز القمة على “نماذج الذكاء الاصطناعي الحدودية”، وهو المصطلح الذي استخدمته OpenAI وGoogle وMicrosoft وAnthropic عندما أنشأت مجموعة صناعية تضم أقوى شركات تصنيع البرمجيات في يونيو/حزيران. تهدف لندن أيضًا إلى إنشاء ما يشبه “الهيئة الحكومية الدولية المعنية بتغير المناخ للذكاء الاصطناعي”، وهي لجنة من الخبراء مستوحاة من الشخص المكلف بإبلاغ الحكومات بشأن المناخ – وهي الفكرة التي دافع عنها أيضًا العديد من المديرين التنفيذيين العاملين في مجال المناخ، في مقال افتتاحي في صحيفة فاينانشيال تايمز. مجال الذكاء الاصطناعي.
لديك 41.25% من هذه المقالة متبقية للقراءة. والباقي للمشتركين فقط.
[ad_2]
المصدر