ميريديث ويتاكر من شركة Signal تتحدث عن شركات التكنولوجيا الكبرى والخصوصية وتنظيم الذكاء الاصطناعي

ميريديث ويتاكر من شركة Signal تتحدث عن شركات التكنولوجيا الكبرى والخصوصية وتنظيم الذكاء الاصطناعي

[ad_1]

تحدثت رئيسة شركة Signal ميريديث ويتاكر إلى يورونيوز نيكست حول تنظيم أوروبا للذكاء الاصطناعي والخصوصية والصحة العقلية في هذا العصر الجديد للذكاء الاصطناعي (AI).

إعلان

ميريديث ويتاكر، رئيسة مؤسسة Signal غير الهادفة للربح والتي تدير تطبيق Signal messenger المشفر، هي واحدة من أوائل المفكرين في الذكاء الاصطناعي (AI)، بعد أن قادت مجموعة بحثية حول التكنولوجيا في عام 2006 لصالح Google.

لقد نظمت إضرابًا عن العمل في Google بسبب موقفها من التحرش الجنسي، وأُجبرت على ترك الشركة في عام 2019.

ثم شاركت بعد ذلك في تأسيس معهد AI Now وكانت مستشارة للجنة التجارة الفيدرالية الأمريكية وما زالت لديها مخاوفها بشأن شركات التكنولوجيا الكبرى وكيف تتحكم في بياناتنا في هذا العصر الجديد للذكاء الاصطناعي.

تحدثت إلى يورونيوز نيكست حول الذكاء الاصطناعي في أوروبا والتنظيم في قمة الويب لهذا العام في لشبونة.

يورونيوز التالي: لقد تحدثت كثيرًا عن مخاوفك بشأن الذكاء الاصطناعي والضجة التي نمر بها بشأن الذكاء الاصطناعي. ما هو الشيء الذي يقلقك على وجه الخصوص؟

ميريديث ويتاكر: أعتقد أن مخاوفي لا تتعلق بالتكنولوجيا نفسها بقدر ما تتعلق بحقيقة أنها تم تطويرها والسيطرة عليها من قبل حفنة من الشركات الكبيرة التي تتمثل مصالحها بالطبع في مصالح الشركة والأرباح والنمو وإرضاء الناس. المساهمين؛ ليس بالضرورة الصالح الاجتماعي.

وأن الذكاء الاصطناعي الذي يبيعونه، والذي يرخصونه، والذي ينشئونه، والذي ينشرونه، يتطلب كميات هائلة من البيانات، ويتطلب كميات هائلة من القوة الحسابية، ويعزز ويوسع بشكل فعال نموذج أعمال المراقبة، وهو في غاية الأهمية. قلب الكثير من الأضرار التي تقلق معظم دول العالم عندما يتعلق الأمر بالتكنولوجيا غير الخاضعة للمساءلة.

أعتقد أن مخاوفي واهتماماتي تتعلق بالأشخاص والمؤسسات والحوافز التي تشكل الذكاء الاصطناعي أكثر من اهتمامها بالتكنولوجيا نفسها، أو فكرة أنها يمكن أن تصبح واعية أو شبيهة بالله بطريقة أو بأخرى.

دعونا نتحدث عن حوكمة وتنظيم الذكاء الاصطناعي. هل يذهب التنظيم إلى حد كافٍ؟ وبشكل أكثر تحديدا، بينما تستعد أوروبا لتفويضها الخاص بالذكاء الاصطناعي، كيف تسير أوروبا؟

(أوروبا) قانون الذكاء الاصطناعي لم يكتمل بعد. لا نعرف تمامًا كيف سيكون الشكل النهائي. أعتقد أننا بحاجة إلى تعليق الحكم لمدة دقيقة. أعتقد أن أوروبا قد فعلت بالفعل الكثير مما يمكن استخدامه للتحقق بقوة من بعض أضرار الذكاء الاصطناعي.

أحد الأمثلة التي أود أن أطرحها هو حقيقة أن اللائحة العامة لحماية البيانات يتم تفسيرها بدقة وتنفيذها. ومن الممكن بسهولة استخدام هذا الإجراء الصارم لحظر إعلانات المراقبة، ومن شأن حظر إعلانات المراقبة أن يخلف تأثيراً هائلاً وجذرياً إلى حد ما في إعادة هيكلة الحوافز التي تحرك هذه الشركات.

قد يعني ذلك فجأة أن تلك الكمية الهائلة من البيانات التي تم استخدامها لإنشاء ملفات تعريف ديموغرافية يتم بيعها للمعلنين، للاستهداف الجزئي، لاستهداف أنواع مختلفة من الأشخاص، لن يعد مسموحًا بها.

وهذا من شأنه أن يؤثر بالطبع على الذكاء الاصطناعي لأن مصدر البيانات هذا، كما تعلمون، كل ما ننشره على وسائل التواصل الاجتماعي، وبيانات موقعنا، ورسمنا البياني الاجتماعي، كل ذلك سيصبح فجأة أقل فائدة بكثير.

وفي تفسير صارم، ربما يكون من غير المسموح لهذه الشركات المركزية جمعها وصيانتها. لذا، هذا أحد الأمثلة على موقف أوروبا بالفعل في هذا الشأن. والسؤال هو حقا الإرادة السياسية.

دعونا نتعمق في الإرادة السياسية، هل تشعر أنه ربما يكون هناك فكرة أكثر في الولايات المتحدة مفادها أن نكون أكثر شركاتية حول هذا الأمر، فلنحقق المزيد من الأرباح؟

حسنا بالطبع. يوجد عدد كبير من هذه الشركات في الولايات المتحدة. هذا هو اختصاصهم والولايات المتحدة تدرك ذلك جيدًا. إنها هذه الشركات التي تتعاون مع حكومة الولايات المتحدة.

في كثير من الأحيان أنها توفر البنية التحتية للحكومة. ونحن في وضع سياسي فوضوي للغاية في الولايات المتحدة حيث مضى 20 أو 30 عامًا، اعتمادًا على المكان الذي تحسب فيه، وليس لدينا قانون فيدرالي للخصوصية.

الشيء الوحيد الذي يمنحني الأمل هو أنه من الصعب جدًا بناء هذه الأنظمة ذات الحجم العالمي واسعة النطاق بطريقة مخصصة لكل ولاية قضائية.

إعلان

إن التنظيم القوي من أوروبا أو من سوق كبيرة أخرى له تأثير تشكيلي على هذه الشركات، حتى لو لم يأتي من الولاية القضائية التي يقع مقرها فيها.

ما حجم الخطر الذي ستشكله “المصانع المستغلة للعمال” التي تعمل بالذكاء الاصطناعي والتي تجمع البيانات؟

أعتقد أن القضية هناك هي في الواقع مسألة العمل. كان هناك تقدير مؤخرًا بأن 100 مليون شخص يعملون في وظائف محفوفة بالمخاطر للغاية، وهم فعليًا مشرفون بشريون، يوفرون الذكاء البشري الذي تنسب إليه شركات الذكاء الاصطناعي والذكاء الاصطناعي.

هذا هو تصنيف البيانات. هذا هو تنظيم البيانات، وهذا هو المعايرة. إخبار النظام بما هو مقبول وما هو غير مقبول. هذا هو الاعتدال في المحتوى؛ هذا هو التحكم في الأخطاء وإدارة المشكلات التي تخلقها أنظمة الذكاء الاصطناعي هذه عندما تتصرف بشكل متقطع.

هذا عدد كبير من الناس.

إعلان

وأعتقد أن هناك مشكلات حقيقية تتعلق بجودة هذا العمل. هناك قضايا حقيقية حول الضرر الذي يلحقه هذا العمل بالصحة العقلية للناس. هذا ليس مثيرا للجدل.

إن وظيفة المشاهدة المتكررة أو مواجهة الصور أو النصوص المرعبة لها تأثير موثق وواضح جدًا وضار على الصحة العقلية للأشخاص. لدينا شهادات من أشخاص فقدوا وظائفهم، وعلاقاتهم، وفقدوا قدرتهم على التواجد في العالم بسبب مدى إزعاج هذا الأمر.

وأعتقد أن هناك سؤالًا أكبر نحتاج إلى التراجع عنه، فقط إذا كانت هذه الأنظمة تتطلب هذا الحجم من الضرر، وهو ما تفعله، فلا توجد طريقة أخرى لجعل هذه الأنظمة تعمل وجعلها مقبولة نوعًا ما للاستخدام التجاري والشعبي.

هل نحن مرتاحون لذلك؟

هل تعتقد أن الخصوصية ستكون من بين الضحايا الأكثر أهمية مع تزايد عدد الأشخاص الذين يستخدمون برامج الذكاء الاصطناعي التوليدية، مثل Chat GPT؟

إعلان

لقد كانت الخصوصية ضحية على طريق نموذج أعمال التكنولوجيا لفترة طويلة.

ستستمر Signal في توفير ملاذ آمن خاص حقًا من جمع البيانات الشره الذي يحدد بقية الصناعة.

لكن من المؤكد أن هذا السباق نحو الأكبر هو الأفضل. يشكل الذكاء الاصطناعي خطرًا كبيرًا على الخصوصية. إنه يدعو إلى إنشاء وجمع بيانات أكثر حميمية وانتشارًا وغزوًا بشكل متزايد عنا وعن مجتمعاتنا.

وهي قوة لمزيد من مركزية تلك البيانات في أيدي حفنة من الشركات، والتي، مرة أخرى، قوة غير خاضعة للمساءلة. من الصعب جدًا العثور على نظير له في التاريخ.

لقد انتقدت قانون السلامة عبر الإنترنت في المملكة المتحدة فيما يتعلق بإنهاء التشفير الشامل. ما هو شعورك حيال ذلك وقواعد البيانات في الاتحاد الأوروبي؟

إعلان

(قانون السلامة على الإنترنت في المملكة المتحدة) يحتوي على ما يمكن أن أعتبره في الواقع نوعًا من المنتج أو على الأقل جزئيًا منتجًا لهذه الضجة حول الذكاء الاصطناعي، والتي كانت عبارة مضللة للغاية والتي تعني ضمنيًا أنها كانت مبنية على الاعتقاد بأن أنظمة الذكاء الاصطناعي يمكنها بطريقة ما فحص البيانات الشخصية لكل شخص. تواصل.

مطابقة ذلك مع قاعدة بيانات التعبير المسموح به بطريقة خاصة وآمنة وبالطبع الإجماع التكنولوجي طويل الأمد. يعرف مجتمع الخبراء بأكمله أن هذا غير صحيح.

ولذا فقد ناضلنا ضد ذلك لأننا كشركة Signal، نعتمد على التشفير الشامل لتوفير خيار مفيد للاتصالات الخاصة حقًا في عالم مليء بالمراقبة. لأننا كنا قلقين للغاية بشأن هذا القانون.

والآن، لدى أوروبا قانون مماثل للمضي قدمًا. يبدو أنهم قاموا بتعديله لإعفاء الرسائل المشفرة عبر الإنترنت من الفحص، وهو أمر رائع. لكن بطبيعة الحال، فإن المحادثات الثلاثية قادمة وهناك عملية سياسية معقدة. لم ننتهي بعد.

لكننا سعداء أنه من خلال جلب مجتمع حقوق الإنسان إلى المقدمة، وجلب الخبرة التقنية الحقيقية، وليس أقسام التسويق في شركات الذكاء الاصطناعي إلى المقدمة، تمكنا من توضيح أن هذا كان تفكيرًا سحريًا وأنه في الواقع خطير للغاية على الحقوق والحريات. .

إعلان

[ad_2]

المصدر