لا يمكن أن يكون هناك تنظيم للذكاء الاصطناعي دون شفافية الشركات

لا يمكن أن يكون هناك تنظيم للذكاء الاصطناعي دون شفافية الشركات

[ad_1]

ابق على اطلاع بالتحديثات المجانية

الكاتب هو مدير السياسة الدولية في مركز السياسات السيبرانية بجامعة ستانفورد ومستشار خاص للمفوضية الأوروبية

لا يكاد يمر يوم دون اقتراح جديد بشأن كيفية تنظيم الذكاء الاصطناعي: الهيئات البحثية، ووكالات السلامة، وفكرة من الوكالة الدولية للطاقة الذرية تحت عنوان “الوكالة الدولية للطاقة الذرية للذكاء الاصطناعي”. . . القائمة مستمرة في النمو. وتعكس كل هذه الاقتراحات رغبة ملحة في القيام بشيء ما، حتى لو لم يكن هناك إجماع على ماهية هذا “الشيء”. من المؤكد أن هناك أمورا كثيرة على المحك، من التوظيف والتمييز إلى الأمن القومي والديمقراطية. ولكن هل يستطيع القادة السياسيون بالفعل تطوير السياسات اللازمة عندما لا يعرفون سوى القليل عن الذكاء الاصطناعي؟

وهذه ليست طعنة رخيصة لسد الفجوات المعرفية لدى المسؤولين في الحكومة. وحتى خبراء التكنولوجيا لديهم تساؤلات جدية حول سلوك نماذج اللغات الكبيرة (LLMs). في وقت سابق من هذا العام، نشر سام بومان، الأستاذ في جامعة نيويورك، “ثمانية أشياء يجب معرفتها حول نماذج اللغات الكبيرة”، وهي مقالة لافتة للنظر كشفت أن هذه النماذج غالبًا ما تتصرف بطرق لا يمكن التنبؤ بها وأن الخبراء ليس لديهم تقنيات موثوقة لتوجيهها هم.

مثل هذه الأسئلة يجب أن تعطينا وقفة جدية. ولكن بدلاً من إعطاء الأولوية للشفافية، تعمل شركات الذكاء الاصطناعي على حماية البيانات والإعدادات الخوارزمية باعتبارها معلومات ملكية محمية بعلامات تجارية. من المعروف أن الذكاء الاصطناعي المملوك لشركة غير مفهومة – ويزداد سرية من أي وقت مضى – حتى مع توسع قوة هذه الشركات.

يسلط مؤشر الشفافية النموذجي الأخير، الذي نشره زملائي في معهد ستانفورد للذكاء الاصطناعي الذي يركز على الإنسان، الضوء على مقدار ما لا نعرفه، وربما لا نعرفه أبدا. قام الباحثون بتقييم شهادات الماجستير في القانون من الشركات الرائدة في السوق: OpenAI، وMeta، وAnthropic، وHugging Face، وفحصوا كل شيء بدءًا من البيانات وحتى العمالة البشرية المشاركة في سياسات البناء والتوزيع الخاصة بهم. ومن بين المؤشرات المائة، قام الباحثون بفحص استخدام البيانات المحمية بحقوق الطبع والنشر، وتدابير الخصوصية، والاختبارات الأمنية. النموذج الذي حصل على أعلى الدرجات، Meta’s Llama 2، حصل على 54 درجة فقط من أصل 100: درجة F مدوية إذا كانت ورقة بحثية للطلاب.

الشفافية ليست مجرد فكرة مثالية مهمة. إنه ضروري لنجاح مساءلة الذكاء الاصطناعي. وبدون ذلك، لا يستطيع الباحثون تقييم النماذج الأساسية للتحيز أو التهديدات الأمنية. سيظل المنظمون والجمهور غير مدركين تمامًا للمخاطر الكامنة في تقنيات الرعاية الصحية أو إنفاذ القانون.

كما تمنح صحراء المعلومات هذه قادة الشركات تأثيراً غير متناسب على كيفية فهم الساسة للتكنولوجيا. ويبدو من المرجح أن ينظر أولئك الموجودون في الحكومة إلى هؤلاء المسؤولين التنفيذيين باعتبارهم خبراء ممجدين ذوي نوايا نبيلة ورؤية لا مثيل لها – على الرغم من دوافعهم الربحية الواضحة للغاية. وقد رأينا هذه الديناميكية معروضة بالكامل في منتدى الذكاء الاصطناعي الذي عقده مجلس الشيوخ الأميركي مؤخراً، وهو تجمع مغلق حيث هلل العديد من كبار المديرين التنفيذيين وأصحاب رؤوس الأموال الاستثمارية الرائدين في الصناعة دون انتقاد للتقدم الذي أحرزته التكنولوجيا.

إن الافتقار إلى الشفافية بشأن الأعمال الداخلية لمنتجات التكنولوجيا القوية لم يسفر عن نتائج جيدة بشكل خاص في الماضي. وكما قال ريشي بوماساني، الباحث الرئيسي في مؤشر الشفافية: “لقد رأينا إعلانات وأسعارًا خادعة عبر الإنترنت، وممارسات غير واضحة للأجور في مشاركة الرحلات، وأنماط مظلمة تخدع المستخدمين لإجراء عمليات شراء غير معروفة، وعدد لا يحصى من مشكلات الشفافية حول الإشراف على المحتوى الذي لقد أدى ذلك إلى نظام بيئي واسع من المعلومات الخاطئة والمضللة على وسائل التواصل الاجتماعي. سوف تواجه الشركات والمستهلكون الذين يستخدمون الذكاء الاصطناعي أضرارًا متزايدة يصعب اكتشافها. تحدث انتهاكات مكافحة الاحتكار في أنظمة الصندوق الأسود، ويستفيد أولئك الذين يسعون إلى الحصول على تقييمات إيجابية “زائفة” للمنتجات من نفس تكنولوجيا الذكاء الاصطناعي التي يمكن استخدامها لوضع إعلانات سياسية خادعة على المنشطات.

غالبًا ما يتردد السياسيون في الاعتراف بما لا يعرفونه، لكن تهيئة الظروف للتحقيق والتدقيق والرقابة أمر أساسي لإنتاج تنظيم مدروس للذكاء الاصطناعي. تحتاج النماذج التأسيسية إلى معايير الشفافية. ويحظى وصول الباحثين إلى البيانات بنفس القدر من الأهمية، ولكن من المثير للفضول أن قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي يعد حاليا قانون الذكاء الاصطناعي الأكثر شمولا في العالم. كما أن مدونة قواعد السلوك الصادرة حديثاً عن مجموعة السبع، فضلاً عن الأمر التنفيذي الذي أصدره البيت الأبيض هذا الأسبوع بشأن الذكاء الاصطناعي، فشلت أيضاً في وضع الشفافية في مقدمة أولوياتها. ركزت حكومة المملكة المتحدة بشكل ضيق على تدقيق السلامة قبل قمة الذكاء الاصطناعي التي ستعقد هذا الأسبوع.

إن التعتيم المستمر سوف يقف في طريق المساءلة ويسمح للشركات بالتصرف بتهور. والنتيجة هي سلسلة من المشاكل، بدءاً من تمكين وادي السليكون إلى العجز الفادح في المعلومات بين وسائل الإعلام وعامة الناس والجهات التنظيمية. وتعتمد السياسات الأكثر أهمية على الفهم الأفضل للتكنولوجيا ونماذج أعمالها. وهذا وحده كفيل بمعالجة المخاطر العديدة التي يمثلها الذكاء الاصطناعي.

[ad_2]

المصدر