[ad_1]
وقعت شركات التكنولوجيا الكبرى اتفاقا الجمعة لتبني “احتياطات معقولة” طوعا لمنع استخدام أدوات الذكاء الاصطناعي لتعطيل الانتخابات الديمقراطية في جميع أنحاء العالم.
اجتمع المديرون التنفيذيون للتكنولوجيا من Adobe وAmazon وGoogle وMeta وMicrosoft وOpenAI وTikTok في مؤتمر ميونيخ الأمني للإعلان عن إطار عمل تطوعي جديد لكيفية استجابتهم للتزييف العميق الناتج عن الذكاء الاصطناعي والذي يخدع الناخبين عمدًا. كما قامت ثلاث عشرة شركة أخرى – بما في ذلك شركة IBM وشركة Elon Musk’s X – بالتوقيع على الاتفاقية.
وقال نيك كليغ، رئيس الشؤون العالمية في شركة ميتا: “يدرك الجميع أنه لا توجد شركة تكنولوجيا واحدة، ولا حكومة واحدة، ولا منظمة مجتمع مدني واحدة قادرة على التعامل بمفردها مع ظهور هذه التكنولوجيا واستخدامها الشائن المحتمل”. الشركة الأم لفيسبوك وإنستغرام، في مقابلة قبل القمة.
يعد الاتفاق رمزيًا إلى حد كبير، ولكنه يستهدف بشكل متزايد الصور والصوت والفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي “والتي تزييف أو تغير بشكل مخادع مظهر أو صوت أو تصرفات المرشحين السياسيين ومسؤولي الانتخابات وغيرهم من أصحاب المصلحة الرئيسيين في انتخابات ديمقراطية، أو التي توفر معلومات كاذبة للناخبين حول متى وأين وكيف يمكنهم التصويت بشكل قانوني”.
لا تلتزم الشركات بحظر أو إزالة التزييف العميق. وبدلاً من ذلك، تحدد الاتفاقية الأساليب التي سيستخدمونها لمحاولة اكتشاف محتوى الذكاء الاصطناعي المخادع وتصنيفه عند إنشائه أو توزيعه على منصاتهم. ويشير إلى أن الشركات ستشارك أفضل الممارسات مع بعضها البعض وستقدم “استجابات سريعة ومتناسبة” عندما يبدأ هذا المحتوى في الانتشار.
من المحتمل أن يكون غموض الالتزامات وعدم وجود أي متطلبات ملزمة قد ساعد في كسب مجموعة متنوعة من الشركات، لكنه قد يخيب آمال الناشطين المؤيدين للديمقراطية وهيئات المراقبة الذين يبحثون عن ضمانات أقوى.
قال كليج: “كل شركة لديها مجموعة خاصة بها من سياسات المحتوى”. “هذه ليست محاولة لفرض قيود على الجميع. وعلى أية حال، لا أحد في الصناعة يعتقد أنه يمكنك التعامل مع نموذج تكنولوجي جديد تمامًا من خلال إخفاء الأشياء ومحاولة لعب لعبة اضرب الخلد والعثور على كل ما تعتقد أنه قد يضلل شخصًا ما.
ويأتي الاتفاق الذي تم التوصل إليه في الاجتماع الأمني السنوي للمدينة الألمانية في الوقت الذي من المقرر أن تجري فيه أكثر من 50 دولة انتخابات وطنية في عام 2024. وقد فعلت بعض الدول ذلك بالفعل، بما في ذلك بنغلاديش وتايوان وباكستان، ومؤخرا إندونيسيا.
وقد بدأت بالفعل محاولات التدخل في الانتخابات بواسطة الذكاء الاصطناعي، كما هو الحال عندما حاولت المكالمات الآلية التي تعتمد على الذكاء الاصطناعي والتي تحاكي صوت الرئيس الأمريكي جو بايدن تثبيط الناس عن التصويت في الانتخابات التمهيدية في نيو هامبشاير الشهر الماضي.
قبل أيام قليلة من الانتخابات السلوفاكية في نوفمبر/تشرين الثاني، انتحلت التسجيلات الصوتية التي أنشأها الذكاء الاصطناعي شخصية مرشح ليبرالي يناقش خططا لرفع أسعار البيرة وتزوير الانتخابات. وسارع مدققو الحقائق إلى تحديدها على أنها كاذبة، ولكن تم بالفعل مشاركتها على نطاق واسع على أنها حقيقية عبر وسائل التواصل الاجتماعي.
كما قام السياسيون ولجان الحملات الانتخابية بتجربة هذه التكنولوجيا، بدءًا من استخدام روبوتات الدردشة المدعمة بالذكاء الاصطناعي للتواصل مع الناخبين إلى إضافة الصور المولدة بواسطة الذكاء الاصطناعي إلى الإعلانات.
قبل الانتخابات الإندونيسية، شارك زعيم حزب سياسي مقطع فيديو يستنسخ فيه وجه وصوت الدكتاتور الراحل سوهارتو. كشف المنشور على X أن الفيديو تم إنشاؤه بواسطة الذكاء الاصطناعي، لكن بعض النقاد عبر الإنترنت وصفوه بأنه إساءة استخدام لأدوات الذكاء الاصطناعي لتخويف الناخبين والتأثير عليهم.
وجاء في اتفاق يوم الجمعة أنه في الرد على التزييف العميق الناتج عن الذكاء الاصطناعي، فإن المنصات “ستهتم بالسياق وخاصة بحماية التعبير التعليمي والوثائقي والفني والساخر والسياسي”.
وقالت إن الشركات ستركز على الشفافية أمام المستخدمين بشأن سياساتهم بشأن المحتوى الانتخابي المخادع الذي يعتمد على الذكاء الاصطناعي، وستعمل على تثقيف الجمهور حول كيفية تجنب الوقوع في فخ الذكاء الاصطناعي المزيف.
قالت العديد من الشركات سابقًا إنها تضع ضمانات على أدوات الذكاء الاصطناعي التوليدية الخاصة بها والتي يمكنها معالجة الصور والصوت، بينما تعمل أيضًا على تحديد المحتوى الناتج عن الذكاء الاصطناعي وتصنيفه حتى يعرف مستخدمو وسائل التواصل الاجتماعي ما إذا كان ما يرونه حقيقيًا أم لا. . لكن معظم هذه الحلول المقترحة لم يتم طرحها بعد، وقد واجهت الشركات ضغوطًا من الجهات التنظيمية وغيرها لبذل المزيد من الجهد.
وتتزايد هذه الضغوط في الولايات المتحدة، حيث لم يقر الكونجرس بعد القوانين التي تنظم استخدام الذكاء الاصطناعي في السياسة، مما يترك شركات الذكاء الاصطناعي تحكم نفسها إلى حد كبير. وفي غياب التشريعات الفيدرالية، تدرس العديد من الولايات طرقًا لوضع حواجز حول استخدام الذكاء الاصطناعي في الانتخابات والتطبيقات الأخرى.
أكدت لجنة الاتصالات الفيدرالية مؤخرًا أن المقاطع الصوتية التي تم إنشاؤها بواسطة الذكاء الاصطناعي في المكالمات الآلية مخالفة للقانون، لكن هذا لا يشمل التزييف الصوتي العميق عندما يتم تداوله على وسائل التواصل الاجتماعي أو في إعلانات الحملات.
يحذر خبراء المعلومات المضللة من أنه في حين أن التزييف العميق للذكاء الاصطناعي مثير للقلق بشكل خاص بسبب قدرته على التحليق تحت الرادار والتأثير على الناخبين هذا العام، فإن أشكال التضليل الأرخص والأبسط تظل تشكل تهديدًا كبيرًا. وقد أشار الاتفاق إلى ذلك أيضاً، معترفاً بأن “التلاعب التقليدي (“المزيف الرخيص”) يمكن استخدامه لأغراض مماثلة”.
لدى العديد من شركات وسائل التواصل الاجتماعي بالفعل سياسات معمول بها لردع المنشورات الخادعة حول العمليات الانتخابية، سواء تم إنشاؤها بواسطة الذكاء الاصطناعي أم لا. على سبيل المثال، تقول Meta إنها تزيل المعلومات الخاطئة حول “تواريخ ومواقع وأوقات وطرق التصويت أو تسجيل الناخبين أو المشاركة في التعداد السكاني” بالإضافة إلى المنشورات الكاذبة الأخرى التي تهدف إلى التدخل في المشاركة المدنية لشخص ما.
وقال جيف ألين، المؤسس المشارك لمعهد النزاهة وعالم البيانات السابق في فيسبوك، إن الاتفاق يبدو وكأنه “خطوة إيجابية” لكنه لا يزال يرغب في رؤية شركات وسائل التواصل الاجتماعي تتخذ إجراءات أساسية أخرى لمكافحة المعلومات الخاطئة، مثل بناء أنظمة توصية المحتوى التي لا تعطي الأولوية للمشاركة قبل كل شيء.
بالإضافة إلى المنصات الرئيسية التي ساعدت في التوسط في اتفاق يوم الجمعة، يشمل الموقعون الآخرون مطوري برامج الدردشة الآلية Anthropic وInflection AI؛ بدء تشغيل استنساخ الصوت ElevenLabs؛ مصمم الرقائق Arm Holdings؛ وشركات الأمن McAfee وTrendMicro؛ وStability AI، المعروف بصنعه لمولد الصور Stable Diffusion.
ومن الجدير بالذكر أن أحد مولدات الصور الشهيرة الأخرى التي تعمل بالذكاء الاصطناعي، وهي Midjourney، غائبة بشكل ملحوظ عن الاتفاق. ولم تقم الشركة الناشئة التي يقع مقرها في سان فرانسيسكو بإرجاع طلب للتعليق على الفور يوم الجمعة.
كان إدراج X – الذي لم يتم ذكره في إعلان سابق حول الاتفاقية المعلقة – أحد أكبر المفاجآت في اتفاق يوم الجمعة. قام ماسك بتقليص فرق الإشراف على المحتوى بشكل حاد بعد استحواذه على شركة تويتر السابقة، ووصف نفسه بأنه “مؤيد لحرية التعبير المطلق”.
لكن في بيان صدر يوم الجمعة، قالت ليندا ياكارينو، الرئيس التنفيذي لشركة X، إن “كل مواطن وشركة يتحملان مسؤولية حماية الانتخابات الحرة والنزيهة”.
وقالت: “إن X مكرسة للقيام بدورها، والتعاون مع أقرانها لمكافحة تهديدات الذكاء الاصطناعي مع حماية حرية التعبير وتعظيم الشفافية”.
__
تتلقى وكالة أسوشيتد برس الدعم من العديد من المؤسسات الخاصة لتعزيز تغطيتها التوضيحية للانتخابات والديمقراطية. تعرف على المزيد حول مبادرة الديمقراطية الخاصة بوكالة أسوشييتد برس هنا. AP هي المسؤولة الوحيدة عن جميع المحتويات.
[ad_2]
المصدر