هناك ما هو أكثر في تنظيم الذكاء الاصطناعي من السلامة

هناك ما هو أكثر في تنظيم الذكاء الاصطناعي من السلامة

[ad_1]

ابق على اطلاع بالتحديثات المجانية

الكاتب محامٍ ومؤلف كتاب “الجمهورية الرقمية: استعادة السيطرة على التكنولوجيا”.

وأظهرت مذبحة مجلس الإدارة التي وقعت الشهر الماضي في شركة OpenAI – والتي تمت فيها الإطاحة بالرئيس التنفيذي، سام ألتمان، وإعادته إلى منصبه في أقل من أسبوع – أن الشركة ممزقة بنفس السؤال الذي من المقرر أن يهيمن على السياسة في عام 2024: إلى أي مدى ينبغي على نحو متزايد أن هل يمكن حجب أنظمة الذكاء الاصطناعي القادرة على التنظيم الحكومي؟

وهذا في نهاية المطاف سؤال للسياسيين وليس للشركات. وقد وجدت حكومة المملكة المتحدة مؤخراً إجابتها: السلامة أولاً. وكانت المعالم التنظيمية لعام 2023 هي قانون السلامة عبر الإنترنت وقمة سلامة الذكاء الاصطناعي. وكانت “السلامة” هي الأولوية القصوى لكليهما. جاء هذا الفعل في أعقاب انتحار مولي راسل البالغة من العمر 14 عامًا، والتي تلقت سيلًا من المحتوى عبر الإنترنت المتعلق بإيذاء النفس. وتهدف إلى جعل بريطانيا “المكان الأكثر أمانًا في العالم للاتصال بالإنترنت”. لقد جعلت القمة الكرة التنظيمية تتدحرج في اتجاه مماثل بالنسبة للذكاء الاصطناعي. وقد احتوى إعلان بلتشلي على سبع إشارات إلى “السلامة”، ويعمل معهد سلامة الذكاء الاصطناعي في المملكة المتحدة الآن بنشاط على التوظيف.

ومن المنطقي أن تلعب الحكومة دور مراقب السلامة. إن التكنولوجيات القوية تفرض مخاطر، ولابد من إدارتها بشكل جماعي بدلاً من ترك الناس ليتدبروا أمرهم بأنفسهم. وكما لا يُطلب منا فحص أسلاك الطائرة قبل صعودها إلى الطائرة، فلا ينبغي لنا أن ندعى إلى “الموافقة” على التكنولوجيات المبهرة التي بالكاد نفهم طريقة عملها.

لكن نموذج السلامة لن يأخذنا إلا إلى هذا الحد. وفي المستقبل، لن يكون التنظيم بسيطاً مثل تعزيز الخير وتخفيف الجوانب السيئة من التكنولوجيات الجديدة. وذلك لأنه سيكون من الصعب الاتفاق على ما هو جيد وما هو سيئ في المقام الأول.

ولنأخذ على سبيل المثال النزاع الذي هز صناعة السينما في الولايات المتحدة مؤخراً. وقد أضرب كتاب السيناريو والممثلون، جزئيًا للحصول على ضمانات بأن الذكاء الاصطناعي لن يحل محلهم. وكانت مخاوفهم مبررة. ويمكن لأنظمة الذكاء الاصطناعي أن تولد على نحو متزايد نثرًا ينافس أكثر البشر موهبة، وستكون التأثيرات المولدة بواسطة الذكاء الاصطناعي قادرة على نحو متزايد على أن تحل محل وجوه وأجساد وأصوات الممثلين البشريين.

ولكن تحت السطح، كان هذا أكثر من مجرد نزاع صناعي. لقد كشف عن خلاف أعمق حول طبيعة الفيلم نفسه. هل الهدف من الفن السينمائي توفير لقمة العيش للناس في صناعة السينما؟ أم أنها لتوفير التحفيز والفرح للمستهلكين؟ عندما تتصادم هذه الأهداف، أيهما أكثر أهمية؟

تخيل مستقبلاً تستطيع فيه العائلات ببساطة التحكم في أجهزة التلفزيون الخاصة بها لإنتاج فيلم بجودة هوليوود. يمكنهم اختيار النوع والتحسين للكوميديا ​​أو العنف أو الجنس. وفي ظل المسار التكنولوجي الحالي، فإن هذا ليس بعيد المنال.

ربما لا يزال بعض خبراء المستقبل يفضلون الإنتاجات التي من صنع الإنسان، تمامًا كما يفضل البعض اليوم أفلام الستينيات على أفلام CGI المعاصرة. لكن العديد من الآخرين قد يرون في ذلك بمثابة دمقرطة ثورية للسينما. فبدلاً من الاضطرار إلى الطلب من قائمة طعام هوليود، أصبح بوسع الناس أن يستجمعوا عوالمهم الجمالية الخاصة. وربما يتعجب أحفادنا من أن الأفلام، في عام 2023، كانت لا تزال من صنع البشر؛ تمامًا كما نجد أنه من الغريب أنه في الماضي، كانت كل عجلة تُصنع حسب الطلب بواسطة صانع عجلات.

يدور جدل مماثل في عالم الأدب. تشعر مارغريت أتوود وستيفن كينغ بالقلق من أن أعمالهما تُستخدم لتدريب أنظمة الذكاء الاصطناعي، والتي يمكنها (حسب مصطلح أتوود) “تلتهم” النثر عند الطلب. إن إحباطهم أمر مفهوم، خاصة عندما لا يتلقون أي إتاوات.

ولكن من وجهة نظر الإنسانية، أليس من الرائع أن نكون قادرين على توليد روايات جديدة في نثر أتوود، أو روائع في أسلوب موزارت، أو أفلام على طريقة هيتشكوك – أو ربما أعمال فنية جديدة تجمع بين مواهب الثلاثة – على المدى الطويل. بعد أن غادر هؤلاء العباقرة الأرض؟ هل غرض الفن هو مجرد تبجيل الفنانين وتعويضهم، أم إثارة التحفيز الجمالي والتقدم الثقافي؟

هذه ليست أسئلة سهلة، وهذا هو بيت القصيد. أنا أشك في أن مجلس إدارة OpenAI لديه الإجابات عليها. ولا يمكن الرد عليها ببساطة بالإشارة إلى “السلامة” أيضًا. هذه المناقشات تدور حول القيم. إنهم يطلبون منا أن نختار، على حد تعبير عاموس عوز، بين “الحق والحق”.

ومع تحسن الذكاء الاصطناعي، لن يبقى أي مجال من مجالات النشاط البشري بمنأى عن هذا النوع من الجدل. سوف نختلف حول استخدام “الأصوات” غير البشرية في النقاش السياسي. سوف نقلق بشأن الآلات التي تشكل روابط عاطفية أو مثيرة مع مستخدميها. وفي القانون والطب والتعليم والحرب، سوف تندلع مشاكل أخلاقية جديدة وتتطلب الحل.

إن تنظيم التكنولوجيا يتعلق بالسلامة، ولكنه يتعلق أيضًا بنوع الحضارة التي نرغب في خلقها لأنفسنا. لا يمكننا أن نترك هذه الأسئلة الأخلاقية الكبيرة لشركات الذكاء الاصطناعي لكي تقررها.

[ad_2]

المصدر