[ad_1]
تقوم Meta وYouTube بصياغة سياسات الإفصاح لاستخدام الذكاء الاصطناعي التوليدي (AI) في الإعلانات السياسية، حيث يمتد الجدل حول كيفية تنظيم الحكومة للتكنولوجيا نحو انتخابات عام 2024.
لقد تزايد استخدام أدوات الذكاء الاصطناعي التوليدية، التي يمكنها إنشاء محتوى نصي وصوتي ومرئي، خلال العام الماضي منذ الإصدار العام المتفجر لـ ChatGPT الخاص بـ OpenAI.
وقد أعرب المشرعون من كلا الحزبين عن مخاوفهم بشأن الكيفية التي يمكن بها للذكاء الاصطناعي أن يضخم انتشار المعلومات الخاطئة، خاصة فيما يتعلق بالأحداث الحالية الحرجة أو الانتخابات.
عقد مجلس الشيوخ المنتدى الخامس لرؤى الذكاء الاصطناعي الأسبوع الماضي، والذي غطى تأثير الذكاء الاصطناعي على الانتخابات والديمقراطية.
وبينما ينظر الكونجرس في مقترحات لتنظيم الذكاء الاصطناعي، تعمل شركات التكنولوجيا الرائدة على صياغة سياساتها الخاصة التي تهدف إلى مراقبة استخدام الذكاء الاصطناعي التوليدي في الإعلانات السياسية.
في سبتمبر/أيلول، أعلنت جوجل عن سياسة تتطلب من الحملات واللجان السياسية الكشف عن وقت تعديل إعلاناتها رقميًا، بما في ذلك من خلال الذكاء الاصطناعي.
يتحدث الرئيس التنفيذي لشركة Google ساندر بيتشاي إلى طلاب الجامعات حول تعزيز القوى العاملة في مجال الأمن السيبراني خلال ورشة عمل في مكتب Google في واشنطن العاصمة، يوم الخميس 22 يونيو 2023. (AP Photo / Jose Luis Magana) ما الذي يجب على الحملات والمعلنين الكشف عنه؟
يُطلب من المعلنين الانتخابيين “الكشف بوضوح” عما إذا كان الإعلان يحتوي على محتوى اصطناعي تم تعديله أو إنشاؤه رقميًا و”يصور أشخاصًا أو أحداثًا حقيقية أو واقعية المظهر”، وفقًا لسياسة جوجل، التي دخلت حيز التنفيذ هذا الشهر.
أعلنت شركة Meta، الشركة الأم لفيسبوك وإنستغرام، عن سياسة مماثلة تتطلب من المعلنين السياسيين الكشف عن استخدام الذكاء الاصطناعي عندما يحتوي الإعلان على “صورة أو مقطع فيديو واقعي، أو صوت صوتي واقعي” تم إنشاؤه رقميًا أو تعديله لوسائل تبدو خادعة. .
تشمل هذه الحالات ما إذا تم تعديل الإعلان ليصور شخصًا حقيقيًا يقول أو يفعل شيئًا لم يفعله، أو حدثًا يبدو واقعيًا ولم يحدث.
وقالت ميتا إن سياستها ستدخل حيز التنفيذ في العام الجديد.
وقال روبرت وايزمان، رئيس مجموعة الدفاع عن المستهلك Public Citizen، إن السياسات “خطوات جيدة” ولكنها “ليست كافية من الشركات وليست بديلاً عن الإجراءات الحكومية”.
“من الواضح أن المنصات لا يمكنها إلا أن تغطي نفسها؛ وقال وايزمان: “إنهم لا يستطيعون تغطية جميع المنافذ”.
ردد زعيم الأغلبية في مجلس الشيوخ تشاك شومر (DN.Y.)، الذي أطلق سلسلة منتدى AI Insight، الدعوات لاتخاذ إجراءات حكومية.
وقال شومر إن الحواجز التي فرضتها شركات التكنولوجيا على نفسها، أو الالتزامات الطوعية مثل تلك التي أمّنها البيت الأبيض بواسطة ميتا وجوجل وغيرها من الشركات الرائدة في مجال الذكاء الاصطناعي، لا تأخذ في الاعتبار الشركات الخارجية التي يمكن أن تسحب الصناعة إلى الأسفل لتلبية أدنى المستويات. عتبة التنظيم.
وقال وايزمان إن السياسات تفشل أيضًا في معالجة استخدام الذكاء الاصطناعي المخادع في المنشورات العضوية التي ليست إعلانات سياسية.
وقد استخدم العديد من المرشحين الرئاسيين الجمهوريين لعام 2024 بالفعل الذكاء الاصطناعي في مقاطع فيديو رفيعة المستوى منشورة على وسائل التواصل الاجتماعي.
كيف ينظم الكونجرس الذكاء الاصطناعي في الإعلانات السياسية؟
تم تقديم العديد من المقترحات في الكونجرس لمعالجة استخدام الذكاء الاصطناعي في الإعلانات.
يهدف مشروع قانون مقدم من السيناتور إيمي كلوبوشار (ديمقراطية من ولاية مينيسوتا) وجوش هاولي (جمهوري من ولاية ميسوري) وكريس كونز (ديمقراطية من ولاية ديلاوير) وسوزان كولينز (ديمقراطية من ولاية مين) في سبتمبر إلى حظر استخدام ملفات صوتية أو صور أو مقاطع فيديو خادعة تم إنشاؤها بواسطة الذكاء الاصطناعي في الإعلانات السياسية للتأثير على الانتخابات الفيدرالية أو جمع التبرعات.
هناك إجراء آخر، تم تقديمه في شهر مايو من قبل كلوبوشار، السيناتور كوري بوكر (ديمقراطي من ولاية نيوجيرسي) ومايكل بينيت (ديمقراطي من كولورادو)، والنائبة إيفيت كلارك (ديمقراطية من نيويورك)، يتطلب إخلاء المسؤولية عن الإعلانات السياسية التي تستخدم الصور أو مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
وقالت جينيفر هادلستون، زميلة أبحاث سياسات التكنولوجيا في معهد كاتو والتي حضرت منتدى AI Insight الأسبوع الماضي، إن متطلبات إخلاء المسؤولية أو العلامات المائية قد أثيرت خلال الاجتماع المغلق.
ومع ذلك، قال هادلستون إن هذه المتطلبات يمكن أن تواجه حواجز في الحالات التي يتم فيها استخدام الذكاء الاصطناعي التوليدي لأسباب مفيدة، مثل إضافة التسميات التوضيحية المغلقة أو ترجمة الإعلانات إلى لغات مختلفة.
“هل سنرى تشريعًا يتم صياغته بطريقة لا تجعلنا نرى الإرهاق من الملصقات التحذيرية؟ هل سيتم تصنيف كل شيء على أنه ذكاء اصطناعي بنفس الطريقة (الطريقة) التي يتم بها تصنيف كل شيء على أنه خطر بموجب بعض قوانين التصنيف الأخرى بطريقة لا تعمل حقًا على تحسين تثقيف المستهلك؟” قال هدلستون.
تتحدث رئيسة لجنة القواعد والإدارة بمجلس الشيوخ إيمي كلوبوشار (ديمقراطية من ولاية مينيسوتا) خلال اجتماع عمل للنظر في مبلغ 444 ريال سعودي، مما ينص على النظر بشكل جماعي في الترشيحات العسكرية. يظل الذكاء الاصطناعي المضلل مصدر قلق كبير بعد الانتخابات الرئاسية الأخيرة
قامت Meta وGoogle بصياغة سياساتهما لاستهداف استخدام الذكاء الاصطناعي المضلل.
وقالت الشركات إن المعلنين لن يحتاجوا إلى الكشف عن استخدام أدوات الذكاء الاصطناعي لضبط حجم أو لون الصور. وتساءل بعض منتقدي شركات التكنولوجيا المهيمنة عن كيفية تطبيق هذه المنصات لهذه السياسات.
وقال كايل مورس، نائب المدير التنفيذي لمشروع مراقبة التكنولوجيا، وهي منظمة غير ربحية تدعو إلى كبح جماح القوة السوقية لعمالقة التكنولوجيا، إن السياسات “ليست أكثر من مجرد بيانات صحفية من جوجل وميتا”. وقال إن السياسات هي “أنظمة طوعية” تفتقر إلى آليات إنفاذ ذات معنى.
وقالت ميتا إنه سيتم رفض الإعلانات التي لا تحتوي على إفصاحات مناسبة، وقد تتم معاقبة الحسابات التي لا تكشف عن الإفصاحات بشكل متكرر. ولم تشارك الشركة ما هي العقوبات التي قد تكون أو عدد الجرائم المتكررة التي تبرر ارتكابها.
قالت Google إنها لن توافق على الإعلانات التي تنتهك السياسة وقد تقوم بتعليق المعلنين الذين يرتكبون انتهاكات متكررة للسياسة، لكنها لم توضح بالتفصيل عدد انتهاكات السياسة التي قد تؤدي إلى التعليق.
وقال وايزمان إن المخاوف بشأن تطبيق القواعد ضد الذكاء الاصطناعي المضلل هي “ثانوية” لوضع تلك القواعد في المقام الأول.
“على الرغم من أهمية مسائل التنفيذ، إلا أنها ثانوية بالنسبة لوضع القواعد. لأنه في الوقت الحالي، لا توجد قواعد لحظر أو حتى ردع التزييف السياسي العميق – باستثناء هذه الإجراءات من المنصات – والآن الأهم من ذلك هو الإجراء من جانب الدول.
السناتور جوش هاولي (الجمهوري من ميسوري) العضو البارز في اللجنة الفرعية القضائية بمجلس الشيوخ المعنية بالخصوصية والتكنولوجيا والقانون، يتحدث خلال جلسة استماع حول الذكاء الاصطناعي، 16 مايو 2023، في الكابيتول هيل في واشنطن. (AP Photo/Patrick Semansky, File) تضغط مجموعات المستهلكين من أجل المزيد من التنظيم
بينما يدرس الكونجرس التنظيم، تدرس لجنة الانتخابات الفيدرالية (FEC) توضيح قاعدة لمعالجة استخدام الذكاء الاصطناعي في الحملات بعد مواجهة التماس من Public Citizen.
وقالت جيسيكا فورست جونسون، الشريكة في هولتزمان وفوغل والمستشارة العامة لجمعية الحكام الجمهوريين، إن سياسات ميتا وجوجل “ربما تبدو وكأنها حل وسط جيد بالنسبة لهم في هذه المرحلة”.
“وهذا النوع من الحظر يمكن أن يصبح فوضويًا حقًا، وخاصة في ضوء حقيقة أنه ليس لدينا بعد مبادئ توجيهية وتشريعات فيدرالية. وقال فورست جونسون: “بصراحة، الطريقة التي يعمل بها الكونجرس، لا أعرف حقًا متى سيحدث ذلك”.
“ربما يشعرون بالضغط لفعل شيء ما، وأنا لست متفاجئًا تمامًا. وأضافت: “أعتقد أن هذا ربما يكون حلاً وسطاً معقولاً بالنسبة لهم”.
حقوق الطبع والنشر لعام 2023 لشركة Nexstar Media Inc. جميع الحقوق محفوظة. لا يجوز نشر هذه المادة أو بثها أو إعادة كتابتها أو إعادة توزيعها.
[ad_2]
المصدر