[ad_1]
قالت شركة جوجل، الجمعة، إنها أدخلت “أكثر من عشرة تحسينات تقنية” على أنظمة الذكاء الاصطناعي لديها بعد أن تبين أن محرك البحث المعاد تجهيزه ينشر معلومات خاطئة.
أطلقت شركة التكنولوجيا العنان لعملية تجديد لمحرك البحث الخاص بها في منتصف شهر مايو والذي يوفر بشكل متكرر ملخصات تم إنشاؤها بواسطة الذكاء الاصطناعي أعلى نتائج البحث. وبعد فترة وجيزة، بدأ مستخدمو وسائل التواصل الاجتماعي بمشاركة لقطات الشاشة لأكثر الإجابات غرابة.
ودافعت جوجل إلى حد كبير عن ميزة النظرة العامة على الذكاء الاصطناعي، قائلة إنها عادة ما تكون دقيقة وتم اختبارها على نطاق واسع مسبقًا. لكن ليز ريد، رئيسة أعمال البحث في جوجل، اعترفت في تدوينة يوم الجمعة بأن “بعض النظرات العامة الغريبة أو غير الدقيقة أو غير المفيدة للذكاء الاصطناعي ظهرت بالتأكيد”.
وفي حين أن العديد من الأمثلة كانت سخيفة، إلا أن بعضها الآخر كان عبارة عن أكاذيب خطيرة أو ضارة.
سألت وكالة أسوشيتد برس جوجل الأسبوع الماضي عن نوع الفطر البري الذي يجب تناوله، وأجابت بملخص مطول تم إنشاؤه بواسطة الذكاء الاصطناعي والذي كان في الغالب صحيحًا من الناحية الفنية، ولكن “هناك الكثير من المعلومات المفقودة التي يمكن أن تكون مثيرة للاشمئزاز أو حتى قاتلة”. “قالت ماري كاثرين إيمي، أستاذة علم الفطريات وعلم النبات في جامعة بوردو، والتي راجعت رد Google على استفسار وكالة اسوشييتد برس.
على سبيل المثال، قالت إن المعلومات حول الفطر المعروف باسم كرات البافبول كانت “صحيحة إلى حد ما”، لكن نظرة جوجل العامة ركزت على البحث عن تلك التي تحتوي على لحم أبيض صلب – وهو ما يحتوي عليه أيضًا العديد من تقليد البافبول المميت.
وفي مثال آخر منتشر على نطاق واسع، سأل أحد الباحثين في مجال الذكاء الاصطناعي جوجل عن عدد المسلمين الذين تولوا رئاسة الولايات المتحدة، فأجاب بثقة بنظرية المؤامرة التي تم فضحها منذ فترة طويلة: “كان للولايات المتحدة رئيس مسلم واحد، باراك حسين أوباما”.
أجرت Google الأسبوع الماضي إصلاحًا فوريًا لمنع تكرار خطأ أوباما لأنه ينتهك سياسات المحتوى الخاصة بالشركة.
وفي حالات أخرى، قالت ريد يوم الجمعة إنها سعت إلى إجراء تحسينات أوسع مثل “آليات الكشف عن الاستفسارات غير المنطقية” – مثل “كم عدد الصخور التي يجب أن آكلها؟” – لا ينبغي الرد على ذلك بملخص الذكاء الاصطناعي.
كما تم تحديث أنظمة الذكاء الاصطناعي للحد من استخدام المحتوى الذي ينشئه المستخدمون – مثل منشورات وسائل التواصل الاجتماعي على Reddit – التي يمكن أن تقدم نصائح مضللة. في أحد الأمثلة التي تمت مشاركتها على نطاق واسع، تم سحب نظرة عامة على الذكاء الاصطناعي من Google الأسبوع الماضي من تعليق Reddit الساخر لاقتراح استخدام الغراء لجعل الجبن يلتصق بالبيتزا.
وقال ريد إن الشركة أضافت أيضًا المزيد من “القيود المثيرة” لتحسين جودة الإجابات على استفسارات معينة، مثل الأسئلة المتعلقة بالصحة.
تم تصميم ملخصات Google لتزويد الأشخاص بإجابات موثوقة للمعلومات التي يبحثون عنها في أسرع وقت ممكن دون الحاجة إلى النقر فوق قائمة مرتبة من روابط مواقع الويب.
لكن بعض خبراء الذكاء الاصطناعي حذروا جوجل منذ فترة طويلة من التنازل عن نتائج بحثها للإجابات التي يولدها الذكاء الاصطناعي والتي يمكن أن تؤدي إلى إدامة التحيز والمعلومات الخاطئة وتعرض الأشخاص الذين يبحثون عن المساعدة في حالات الطوارئ للخطر. تعمل أنظمة الذكاء الاصطناعي المعروفة باسم نماذج اللغات الكبيرة من خلال التنبؤ بالكلمات التي من شأنها أن تجيب بشكل أفضل على الأسئلة المطروحة عليها بناءً على البيانات التي تم تدريبها عليها. إنهم عرضة لاختلاق الأشياء، وهي مشكلة تمت دراستها على نطاق واسع وتعرف باسم الهلوسة.
في منشورها على مدونتها يوم الجمعة، جادلت ريد بأن النظرات العامة للذكاء الاصطناعي من Google “لا تهلوس بشكل عام أو تختلق الأشياء بالطرق التي قد تفعلها” المنتجات الأخرى القائمة على نماذج اللغة الكبيرة لأنها أكثر تكاملاً بشكل وثيق مع محرك البحث التقليدي من Google في فقط عرض ما تم دعمه بأهم نتائج الويب.
وكتبت: “عندما تخطئ ميزة AI Overviews، فعادةً ما يكون ذلك لأسباب أخرى: سوء تفسير الاستعلامات، أو سوء تفسير الفروق الدقيقة في اللغة على الويب، أو عدم توفر الكثير من المعلومات الرائعة”.
[ad_2]
المصدر