مشروع قانون كاليفورنيا المناهض للذكاء الاصطناعي يقوض إنجازات القطاع

مشروع قانون كاليفورنيا المناهض للذكاء الاصطناعي يقوض إنجازات القطاع

[ad_1]

ابق على اطلاع بالتحديثات المجانية

الكاتب شريك عام في شركة أندريسن هورويتز

لقد أعطى الذكاء الاصطناعي قطاع التكنولوجيا في الولايات المتحدة جرعة من الأدرينالين والعالم كله نشوة وإثارة. كل يوم نتفاعل مع أدوات كانت تبدو وكأنها من الخيال العلمي قبل بضع سنوات فقط. يمكن للذكاء الاصطناعي التوليدي أن يفعل كل شيء من توفير مدرس شخصي لطفلك إلى تصميم أدوية جديدة.

ولكن لسوء الحظ، كل هذا أصبح في خطر بفضل مشروع قانون جديد في كاليفورنيا يعرف باسم SB-1047، والذي يهدد بقمع تطوير الذكاء الاصطناعي.

إذا تم إقراره، فسيكون له تأثير مخيف ليس فقط على الاستثمار في الذكاء الاصطناعي، ولكن أيضًا على ريادة الأعمال التي تدفع التقدم التكنولوجي في جميع أنحاء العالم.

لقد اقترح المشرعون في الولايات المتحدة أكثر من 600 مشروع قانون للذكاء الاصطناعي هذا العام، ولكن مشروع قانون مجلس الشيوخ رقم 1047 يذهب إلى أبعد من ذلك. فهو يتطلب من المطورين التصديق على أن نماذج الذكاء الاصطناعي الخاصة بهم لا يمكن استخدامها لإحداث ضرر. وهذا شرط لا يمكن الحصول عليه.

إن نماذج الذكاء الاصطناعي قابلة للتعديل بشكل لا نهائي. وتسمح النماذج مفتوحة المصدر للجمهور بالوصول إلى أكوادها المصدرية والبناء عليها، مما يعني أن المطورين قد يتحملون المسؤولية عن أطراف ثالثة. ومن المستحيل ضمان عدم تسبب أي نسخة من نموذج الذكاء الاصطناعي في أي ضرر. ويمثل مشروع القانون سوء فهم أساسي للتكنولوجيا.

ويزعم مشروع القانون أيضًا أنه يستهدف شركات التكنولوجيا الكبيرة فقط. ومع ذلك، فإنه يستخدم عتبة “تكلفة التدريب” البالغة 100 مليون دولار لتحديد حجم الشركة. وتبلغ تكاليف تطوير الذكاء الاصطناعي مليارات الدولارات، مما يعني أن هذا الحد المنخفض نسبيًا قد يؤثر على الشركات الناشئة. ولا يوجد تعريف واضح لتكاليف التدريب أيضًا. وهذا يمثل مشكلة خاصة لأننا ما زلنا في مرحلة البحث المبكرة للذكاء الاصطناعي، عندما تفتقر مصطلحات مثل التدريب المسبق وما بعد التدريب إلى تعريفات عالمية.

وقد وافق مجلس شيوخ ولاية كاليفورنيا بالفعل على نسخة من مشروع القانون. وفي أغسطس/آب، قد ينتقل هذا الاقتراح الذي لم يتم التفكير فيه جيدًا والمثير للاضطراب إلى مكتب الحاكم جافين نيوسوم، الذي قد يوقع عليه ليصبح قانونًا.

لقد حاول مجتمع الذكاء الاصطناعي دق ناقوس الخطر، حيث قام أكثر من مائة من قادة الذكاء الاصطناعي بالتوقيع على رسالة مفتوحة تعارض مشروع القانون.

وقد حذر يان ليكان، كبير علماء الذكاء الاصطناعي في شركة ميتا، من أن “بنود المسؤولية المتتالية في مشروع القانون من شأنها أن تجعل من منصات الذكاء الاصطناعي مفتوحة المصدر أمرا محفوفا بالمخاطر… سوف تكون ميتا بخير، ولكن الشركات الناشئة في مجال الذكاء الاصطناعي سوف تموت ببساطة”.

وبصفتي مستثمراً في مجال الذكاء الاصطناعي، فقد شهدت بنفسي التأثيرات السلبية لهذا القانون. إذ تفكر الشركات الناشئة الواعدة في مجال البرمجيات مفتوحة المصدر في الانتقال إلى الخارج. ونحن نواجه خطر هجرة الأدمغة، مع فرار أفضل المواهب إلى ولايات قضائية أكثر استيعاباً.

إن العواقب العالمية واضحة. ففي حين يتعاون صناع السياسات في الصين بشكل وثيق مع الباحثين في مجال الذكاء الاصطناعي، فإن المشرعين الأميركيين، مهما كانت نواياهم حسنة، يكتبون القوانين دون تعاون جاد من جانب مطوري الذكاء الاصطناعي أو المستثمرين أو الباحثين. وهذا أشبه بكتابة اللوائح الطبية دون استشارة الأطباء.

إن العواقب قد تكون وخيمة وواسعة النطاق. ومع تعثر تطوير الذكاء الاصطناعي في الولايات المتحدة، سوف تستغل الشركات المنافسة العالمية الميزة، وسوف يتم قمع الأفكار الرائدة قبل أن تتاح لها الفرصة للتطور.

إننا في احتياج إلى تنظيم عقلاني للذكاء الاصطناعي. ويتعين علينا أن نركز على إساءة استخدام نماذج الذكاء الاصطناعي من خلال فرض عقوبات أشد على الجرائم التي تستخدم الذكاء الاصطناعي، مثل عمليات التزييف العميق غير المقبولة. ومن الممكن أن نضع معايير على مستوى الصناعة للشفافية حول كيفية تدريب نماذج الذكاء الاصطناعي الكبيرة، وتمويل أبحاث الأمن والسلامة في الجامعات العامة.

ومن شأن هذه التدابير أن تعزز التنمية المسؤولة مع الحفاظ على المرونة اللازمة لتحقيق الإنجازات.

إن مشروع قانون كاليفورنيا المناهض للذكاء الاصطناعي، والذي كان حسن النية ولكنه غير مدروس، يهدد بتقويض صناعة التكنولوجيا في الولايات المتحدة في الوقت الذي يقف فيه مستقبل هذه التكنولوجيا عند مفترق طرق. ونحن في حاجة إلى أن يدرك قادتنا أن الوقت قد حان لاتخاذ إجراءات موحدة ومستنيرة بشأن تنظيم الذكاء الاصطناعي.

[ad_2]

المصدر