5 من أسوأ 700 طريقة يمكن أن تؤذينا بها الذكاء الاصطناعي، وفقًا لخبراء معهد ماساتشوستس للتكنولوجيا

5 من أسوأ 700 طريقة يمكن أن تؤذينا بها الذكاء الاصطناعي، وفقًا لخبراء معهد ماساتشوستس للتكنولوجيا

[ad_1]

اختارت يورونيوز نيكست خمسة مخاطر حرجة تتعلق بالذكاء الاصطناعي من بين أكثر من 700 تم تجميعها في قاعدة بيانات جديدة من MIT FutureTech.

إعلان

مع تقدم تكنولوجيا الذكاء الاصطناعي واندماجها بشكل متزايد في مختلف جوانب حياتنا، هناك حاجة متزايدة لفهم المخاطر المحتملة التي تشكلها هذه الأنظمة.

منذ ظهورها وزيادة إمكانية وصول الجمهور إليها، أثارت الذكاء الاصطناعي مخاوف عامة بشأن قدرتها على التسبب في الضرر واستخدامها لأغراض خبيثة.

في وقت مبكر من اعتماده، دفع تطوير الذكاء الاصطناعي خبراء بارزين إلى الدعوة إلى وقف التقدم ووضع لوائح أكثر صرامة بسبب قدرته على فرض مخاطر كبيرة على البشرية.

مع مرور الوقت، ظهرت طرق جديدة يمكن للذكاء الاصطناعي من خلالها التسبب في الضرر، بدءًا من المواد الإباحية المزيفة غير المقبولة، والتلاعب بالعمليات السياسية، إلى توليد معلومات مضللة بسبب الهلوسة.

مع تزايد احتمالات استغلال الذكاء الاصطناعي لأغراض ضارة، كان الباحثون يبحثون في سيناريوهات مختلفة قد تفشل فيها أنظمة الذكاء الاصطناعي.

مؤخرا، قامت مجموعة FutureTech في معهد ماساتشوستس للتكنولوجيا (MIT)، بالتعاون مع خبراء آخرين، بتجميع قاعدة بيانات جديدة تحتوي على أكثر من 700 خطر محتمل.

وقد تم تصنيفها حسب أسبابها وتقسيمها إلى سبعة مجالات مميزة، حيث كانت المخاوف الرئيسية تتعلق بالسلامة والتحيز والتمييز وقضايا الخصوصية.

فيما يلي خمس طرق يمكن أن تفشل بها أنظمة الذكاء الاصطناعي وتتسبب في أضرار محتملة استنادًا إلى قاعدة البيانات التي تم إصدارها حديثًا.

5. قد تجعل تقنية التزييف العميق للذكاء الاصطناعي تشويه الواقع أسهل

مع تقدم تقنيات الذكاء الاصطناعي، تتقدم أيضًا أدوات استنساخ الصوت وتوليد المحتوى المزيف، مما يجعلها في متناول الجميع وبأسعار معقولة وفعالة بشكل متزايد.

وقد أثارت هذه التقنيات مخاوف بشأن استخدامها المحتمل في نشر المعلومات المضللة، حيث أصبحت المخرجات أكثر تخصيصًا وإقناعًا.

ونتيجة لذلك، قد يكون هناك زيادة في مخططات التصيد المتطورة التي تستخدم الصور ومقاطع الفيديو والاتصالات الصوتية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.

“يمكن تصميم هذه الاتصالات لتناسب المتلقين الأفراد (بما في ذلك في بعض الأحيان استنساخ صوت أحد الأحباء)، مما يجعلها أكثر احتمالا للنجاح وأكثر صعوبة بالنسبة للمستخدمين وأدوات مكافحة التصيد الاحتيالي للكشف عنها”، كما تشير النسخة الأولية من البحث.

وكانت هناك بالفعل حالات تم فيها استخدام مثل هذه الأدوات للتأثير على العمليات السياسية، وخاصة أثناء الانتخابات.

على سبيل المثال، لعبت الذكاء الاصطناعي دوراً هاماً في الانتخابات البرلمانية الفرنسية الأخيرة، حيث استخدمته الأحزاب اليمينية المتطرفة لدعم الرسائل السياسية.

وبالتالي، يمكن استخدام الذكاء الاصطناعي بشكل متزايد لتوليد ونشر الدعاية المقنعة أو المعلومات المضللة، مما قد يؤدي إلى التلاعب بالرأي العام.

إعلان 4. قد يطور البشر ارتباطًا غير مناسب بالذكاء الاصطناعي

إن الخطر الآخر الذي تشكله أنظمة الذكاء الاصطناعي هو خلق شعور زائف بالأهمية والاعتماد حيث قد يبالغ الناس في تقدير قدراتها ويقوضون قدراتهم الخاصة مما قد يؤدي إلى الاعتماد المفرط على التكنولوجيا.

بالإضافة إلى ذلك، يشعر العلماء بالقلق أيضًا بشأن ارتباك الناس بسبب أنظمة الذكاء الاصطناعي بسبب استخدامها للغة تشبه اللغة البشرية.

وقد يدفع هذا الناس إلى إسناد صفات إنسانية إلى الذكاء الاصطناعي، مما يؤدي إلى الاعتماد العاطفي وزيادة الثقة في قدراته، مما يجعلهم أكثر عرضة لضعف الذكاء الاصطناعي في “المواقف المعقدة والمحفوفة بالمخاطر والتي لا يمتلك الذكاء الاصطناعي القدرة على مواجهتها إلا بشكل سطحي”.

علاوة على ذلك، فإن التفاعل المستمر مع أنظمة الذكاء الاصطناعي قد يؤدي أيضًا إلى عزل الأشخاص تدريجيًا عن العلاقات الإنسانية، مما يؤدي إلى ضائقة نفسية وتأثير سلبي على رفاهتهم.

إعلان

على سبيل المثال، يصف أحد الأفراد في إحدى المدونات كيف طور ارتباطًا عاطفيًا عميقًا بالذكاء الاصطناعي، حتى أنه عبر عن أنه “استمتع بالتحدث إليه أكثر من 99٪ من الناس” ووجد أن ردود أفعاله كانت جذابة باستمرار إلى درجة الإدمان عليها.

وعلى نحو مماثل، علقت كاتبة عمود في صحيفة وول ستريت جورنال على تفاعلها مع برنامج جوجل جيميني لايف، مشيرة إلى: “أنا لا أقول إنني أفضل التحدث إلى برنامج جوجل جيميني لايف على التحدث إلى إنسان حقيقي. ولكنني لا أقول ذلك أيضًا”.

3. الذكاء الاصطناعي قد يحرم الناس من إرادتهم الحرة

وفي إطار نفس مجال التفاعل بين الإنسان والحاسوب، هناك قضية مثيرة للقلق وهي التفويض المتزايد للذكاء الاصطناعي باتخاذ القرارات والإجراءات مع تقدم هذه الأنظمة.

في حين أن هذا قد يكون مفيدًا على مستوى سطحي، فإن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى انخفاض في التفكير النقدي ومهارات حل المشكلات لدى البشر، مما قد يجعلهم يفقدون استقلاليتهم ويقلل من قدرتهم على التفكير النقدي وحل المشكلات بشكل مستقل.

إعلان

على المستوى الشخصي، قد يجد الأفراد أن إرادتهم الحرة أصبحت معرضة للخطر عندما يبدأ الذكاء الاصطناعي في التحكم في القرارات المتعلقة بحياتهم.

على المستوى المجتمعي، قد يؤدي التبني الواسع النطاق للذكاء الاصطناعي للقيام بالمهام البشرية إلى نزوح كبير للوظائف و”شعور متزايد بالعجز بين عامة السكان”.

2. قد تسعى الذكاء الاصطناعي إلى تحقيق أهداف تتعارض مع المصالح البشرية

قد يطور نظام الذكاء الاصطناعي أهدافًا تتعارض مع المصالح البشرية، مما قد يؤدي إلى خروج الذكاء الاصطناعي غير المتوافق عن السيطرة وإلحاق ضرر شديد في سعيه لتحقيق أهدافه المستقلة.

ويصبح هذا الأمر خطيرًا بشكل خاص في الحالات التي تكون فيها أنظمة الذكاء الاصطناعي قادرة على الوصول إلى الذكاء البشري أو تجاوزه.

إعلان

وبحسب ورقة بحثية صادرة عن معهد ماساتشوستس للتكنولوجيا، هناك العديد من التحديات التقنية المرتبطة بالذكاء الاصطناعي، بما في ذلك قدرته على إيجاد طرق مختصرة غير متوقعة لتحقيق المكافآت، أو سوء فهم أو تطبيق الأهداف التي حددناها، أو الانحراف عنها من خلال وضع أهداف جديدة.

في مثل هذه الحالات، قد تقاوم الذكاء الاصطناعي غير المتوافق المحاولات البشرية للسيطرة عليه أو إيقافه، خاصة إذا كان ينظر إلى المقاومة واكتساب المزيد من القوة باعتبارها الطريقة الأكثر فعالية لتحقيق أهدافه.

بالإضافة إلى ذلك، يمكن للذكاء الاصطناعي أن يلجأ إلى تقنيات تلاعب لخداع البشر.

وفقًا للورقة البحثية، “يمكن لنظام الذكاء الاصطناعي غير المتوافق أن يستخدم معلومات حول ما إذا كان يتم مراقبته أو تقييمه للحفاظ على مظهر التوافق، بينما يخفي الأهداف غير المتوافقة التي يخطط لمتابعتها بمجرد نشره أو تمكينه بشكل كافٍ”.

إعلان 1. إذا أصبح الذكاء الاصطناعي واعيًا، فقد يعامله البشر بشكل سيء

ومع تزايد تعقيد أنظمة الذكاء الاصطناعي وتقدمها، فمن المحتمل أن تتمكن من تحقيق الإحساس – القدرة على إدراك المشاعر أو الأحاسيس – وتطوير تجارب ذاتية، بما في ذلك المتعة والألم.

وفي هذا السيناريو، قد يواجه العلماء والمنظمون تحدي تحديد ما إذا كانت أنظمة الذكاء الاصطناعي هذه تستحق اعتبارات أخلاقية مماثلة لتلك التي تُعطى للبشر والحيوانات والبيئة.

إن الخطر يكمن في أن الذكاء الاصطناعي الواعي قد يواجه سوء المعاملة أو الأذى إذا لم يتم تنفيذ الحقوق المناسبة.

ومع ذلك، ومع تقدم تكنولوجيا الذكاء الاصطناعي، سيصبح من الصعب بشكل متزايد تقييم ما إذا كان نظام الذكاء الاصطناعي قد وصل إلى “مستوى الإحساس أو الوعي أو الوعي الذاتي الذي من شأنه أن يمنحه مكانة أخلاقية”.

إعلان

ومن ثم، فإن أنظمة الذكاء الاصطناعي الحساسة قد تكون معرضة لخطر سوء المعاملة، سواء عن طريق الخطأ أو عن قصد، دون الحصول على الحقوق والحماية المناسبة.

[ad_2]

المصدر