[ad_1]
سيئول، كوريا الجنوبية – من المقرر أن تستضيف كوريا الجنوبية قمة مصغرة هذا الأسبوع حول مخاطر وتنظيم الذكاء الاصطناعي، متابعة للاجتماع الافتتاحي لسلامة الذكاء الاصطناعي في بريطانيا العام الماضي والذي استقطب حشدًا متنوعًا من نجوم التكنولوجيا والباحثين والمسؤولين. .
ويهدف التجمع في سيول إلى البناء على العمل الذي بدأ في اجتماع المملكة المتحدة بشأن كبح التهديدات التي تشكلها أنظمة الذكاء الاصطناعي المتطورة.
إليك ما تحتاج إلى معرفته حول قمة الذكاء الاصطناعي في سيول وقضايا سلامة الذكاء الاصطناعي.
ما هي الجهود الدولية التي تم بذلها بشأن سلامة الذكاء الاصطناعي؟
تعد قمة سيول واحدة من العديد من الجهود العالمية لإنشاء حواجز أمام التكنولوجيا سريعة التقدم والتي تعد بتغيير العديد من جوانب المجتمع، ولكنها أثارت أيضًا مخاوف بشأن المخاطر الجديدة على الحياة اليومية مثل التحيز الخوارزمي الذي يشوه نتائج البحث والتهديدات الوجودية المحتملة. إلى الإنسانية.
في قمة المملكة المتحدة التي عقدت في تشرين الثاني (نوفمبر) في قاعدة سرية سابقة لفك الشفرات في زمن الحرب في بلتشلي شمال لندن، اجتمع الباحثون والقادة الحكوميون والمسؤولون التنفيذيون في مجال التكنولوجيا وأعضاء مجموعات المجتمع المدني، والعديد منهم لديهم وجهات نظر متعارضة بشأن الذكاء الاصطناعي، في محادثات مغلقة. اختلط الرئيس التنفيذي لشركة Tesla Elon Musk والرئيس التنفيذي لشركة OpenAI Sam Altman مع سياسيين مثل رئيس الوزراء البريطاني ريشي سوناك.
ووقع مندوبون من أكثر من عشرين دولة، بما في ذلك الولايات المتحدة والصين، على إعلان بلتشلي، واتفقوا على العمل معا لاحتواء المخاطر “الكارثية” المحتملة التي يفرضها التقدم السريع في مجال الذكاء الاصطناعي.
في مارس/آذار، وافقت الجمعية العامة للأمم المتحدة على قرارها الأول بشأن الذكاء الاصطناعي، مما يدعم الجهود الدولية الرامية إلى ضمان أن التكنولوجيا الجديدة القوية تعود بالنفع على جميع الدول، وتحترم حقوق الإنسان، وتكون “آمنة وجديرة بالثقة”.
في وقت سابق من هذا الشهر، عقدت الولايات المتحدة والصين أول محادثات رفيعة المستوى حول الذكاء الاصطناعي في جنيف لمناقشة كيفية معالجة مخاطر التكنولوجيا سريعة التطور ووضع معايير مشتركة لإدارتها. هناك، أثار المسؤولون الأمريكيون المخاوف بشأن “إساءة استخدام الصين للذكاء الاصطناعي”، في حين وبخ الممثلون الصينيون الولايات المتحدة بشأن “القيود والضغوط” على الذكاء الاصطناعي، وفقا لحكوماتهم.
ما الذي سيتم مناقشته في قمة سيول؟
وتستضيف حكومتا كوريا الجنوبية والمملكة المتحدة الاجتماع الذي سيعقد في الفترة من 21 إلى 22 مايو.
وفي اليوم الأول، الثلاثاء، سيجتمع الرئيس الكوري الجنوبي يون سوك يول وسوناك مع القادة افتراضيًا. تمت دعوة عدد قليل من قادة الصناعة العالمية لتقديم تحديثات حول كيفية وفائهم بالالتزامات التي تم التعهد بها في قمة بلتشلي لضمان سلامة نماذج الذكاء الاصطناعي الخاصة بهم.
وفي اليوم الثاني، سيجتمع الوزراء الرقميون في اجتماع شخصي يستضيفه وزير العلوم الكوري الجنوبي لي جونغ هو ووزيرة التكنولوجيا البريطانية ميشيل دونيلان. وسيتبادل المشاركون أفضل الممارسات وخطط العمل الملموسة. وسيتبادلون أيضًا الأفكار حول كيفية حماية المجتمع من التأثيرات السلبية المحتملة للذكاء الاصطناعي على مجالات مثل استخدام الطاقة والعمال وانتشار المعلومات الخاطئة والمضللة، وفقًا للمنظمين.
أُطلق على الاجتماع اسم قمة افتراضية مصغرة، وهو بمثابة اجتماع مؤقت حتى تعقد باريس نسخة شخصية كاملة في وقت لاحق من هذا العام.
ومن المقرر أن يضم اجتماع الوزراء الرقمي ممثلين من دول مثل الولايات المتحدة والصين وألمانيا وفرنسا وإسبانيا وشركات بما في ذلك OpenAI، صانع ChatGPT، وGoogle، وMicrosoft، وAnthropic.
ما هو التقدم الذي أحرزته جهود السلامة في مجال الذكاء الاصطناعي؟
وكان الاتفاق الذي تم التوصل إليه في اجتماع المملكة المتحدة خفيفا في التفاصيل ولم يقترح طريقة لتنظيم تطوير الذكاء الاصطناعي.
وجاءت الولايات المتحدة والصين إلى القمة الأخيرة. وقال لي سيونج يوب، الأستاذ في كلية الدراسات العليا لإدارة التكنولوجيا في جامعة كوريا في سيول، “لكن عندما ننظر إلى بعض المبادئ التي تم الإعلان عنها بعد الاجتماع، فإنها كانت مماثلة لما تم الإعلان عنه بالفعل بعد بعض اجتماعات الأمم المتحدة ومنظمة التعاون الاقتصادي والتنمية”. “لم يكن هناك شيء جديد.”
وقال إنه من المهم عقد قمة عالمية حول قضايا سلامة الذكاء الاصطناعي، ولكن سيكون من “الصعب للغاية” على جميع المشاركين التوصل إلى اتفاقات لأن كل دولة لديها مصالح مختلفة ومستويات مختلفة من تقنيات وصناعات الذكاء الاصطناعي المحلية.
يُعقد هذا الاجتماع في الوقت الذي تقوم فيه Meta وOpenAI وGoogle بطرح أحدث الإصدارات من نماذج الذكاء الاصطناعي الخاصة بهم.
تم تصميم قمة سلامة الذكاء الاصطناعي الأصلية لتكون مكانًا لطرح الحلول لما يسمى بالمخاطر الوجودية التي تطرحها أقوى “النماذج الأساسية” التي تدعم أنظمة الذكاء الاصطناعي للأغراض العامة مثل ChatGPT.
تم تعيين عالم الكمبيوتر الرائد يوشوا بنجيو، الذي يطلق عليه لقب “أحد عرابي الذكاء الاصطناعي”، في اجتماع المملكة المتحدة لقيادة لجنة خبراء مكلفة بصياغة تقرير حول حالة سلامة الذكاء الاصطناعي. حددت نسخة مؤقتة من التقرير صدرت يوم الجمعة لإثراء المناقشات في سيول مجموعة من المخاطر التي يشكلها الذكاء الاصطناعي للأغراض العامة، بما في ذلك استخدامه الضار لزيادة “حجم وتعقيد” عمليات الاحتيال والاحتيال، أو زيادة انتشار المعلومات المضللة، أو إنشاء أسلحة بيولوجية جديدة.
وقال التقرير إن أنظمة الذكاء الاصطناعي المعطلة يمكن أن تنشر التحيز في مجالات مثل الرعاية الصحية والتوظيف والإقراض المالي، في حين أن قدرة التكنولوجيا على أتمتة مجموعة كبيرة من المهام تشكل أيضًا مخاطر نظامية على سوق العمل.
وتأمل كوريا الجنوبية في استغلال قمة سيول لأخذ زمام المبادرة في صياغة الحوكمة العالمية ومعايير الذكاء الاصطناعي. لكن بعض النقاد يقولون إن البلاد تفتقر إلى البنية التحتية للذكاء الاصطناعي المتقدمة بما يكفي للعب دور قيادي في قضايا الحكم هذه.
__
أفاد تشان من لندن.
[ad_2]
المصدر