في 2024، بدأت جوجل في منح الإجابات المولدة بالذكاء الاصطناعي مكانة متميزة في أعلى صفحة نتائج البحث الخاصة بها، وساعد هذا المنتج الجديد المعروف باسم AI Overviews “نظرات عامة بالذكاء الاصطناعي” في تحويل جوجل من مجرد “منسق” للمعلومات إلى “ناشر” لها.
ووجد تحليل حديث لهذه الميزة أنها كانت دقيقة في تسع من كل عشر مرات تقريبًا؛ لكن مع معالجة جوجل لأكثر من 5 تريليونات عملية بحث سنويًا، فإن هذا يعني أنها تقدم عشرات الملايين من الإجابات الخاطئة كل ساعة، أو مئات الآلاف من عدم الدقة كل دقيقة، وفقًا لتحليل أجرته شركة ناشئة للذكاء الاصطناعي تُدعى “أومي Oumi”.
دقة إجابات AI Overviews
وأشار التحليل إلى أن أكثر من نصف الاستجابات الدقيقة كانت “غير مستندة إلى مصادر”، مما يعني أنها كانت ترتبط بمواقع إلكترونية لا تدعم المعلومات المقدمة بشكل كامل، ما يجعل التحقق من دقة هذه الملخصات أمرًا صعبًا.
وبحسب تحقيق لـ”وول ستريت جورنال” فإن الجدل حول ما إذا كان معدل الاستجابة الذي يقترب من الدقة -ولكنه لا يحققها تمامًا- يستحق الاحتفاء، يعد جزءًا من نقاش واسع النطاق في وادي السيليكون حول أداء أنظمة الذكاء الاصطناعي، وهو نقاش يمس جوهر ما يمكننا الوثوق به عبر الإنترنت.
وفي حين يجادل بعض التقنيين بأن هذه الميزة دقيقة بشكل معقول وتحسنت في الأشهر الأخيرة، يخشى آخرون من أن الشخص العادي قد لا يدرك أن هذه النتائج تحتاج إلى تدقيق مضاعف.
وبناءً على طلب من صحيفة “نيويورك تايمز”، شركة “أومي” بتحليل دقة نظرات جوجل العامة باستخدام اختبار معيار يسمى SimpleQA مستخدم على نطاق واسع في الصناعة لقياس دقة أنظمة الذكاء الاصطناعي.
واختبرت الشركة الناشئة نظام جوجل في أكتوبر، عندما كانت الأسئلة الأكثر تعقيدًا تُجاب باستخدام تقنية تسمى “جميناي 2″، ثم مرة أخرى في فبراير بعد ترقيتها إلى “جميناي 3″، وهي تقنية أكثر قوة.
وفي كلتا الحالتين، ركّز تحليل “أومي” على 4326 عملية بحث، ووجدت الشركة أن النتائج كانت دقيقة بنسبة 85% مع “جميناي 2” و91% مع “جميناي 3”.
أخطاء الأداة
وذكر براتيك فيرما، الرئيس التنفيذي لشركة “أوكاهو” التي تساعد الناس على فهم واستخدام تقنيات الذكاء الاصطناعي، أن تقنية جوجل كانت دقيقة تقريبًا مثل أي من أنظمة الذكاء الاصطناعي، لكنه حثّ الناس على التحقق المزدوج من معلوماتها، مؤكدًا ضرورة عدم الوثوق بمصدر واحد ومقارنة النتائج دائمًا بمصادر أخرى.
وتقر جوجل بأن ميزتها قد تتضمن أخطاء، حيث تنص الملاحظة الدقيقة أسفل كل ملخص على أن: “الذكاء الاصطناعي يمكن أن يرتكب أخطاء، لذا تحقق من الاستجابات”.
ومع ذلك، وصفت جوجل تحليل “أومي” بأنه معيب لأنه اعتمد على اختبار معياري صاغته شركة “أوبن إيه آي” يحتوي هو نفسه على معلومات غير صحيحة، وقال نيد أدريانس، المتحدث باسم جوجل، إن الدراسة بها “ثغرات خطيرة” ولا تعكس ما يبحث عنه الناس فعليًا.
ماذا تقدم AI Overviews ؟
وتقدم ميزة “AI Overviews” نوعين من المعلومات: إجابات على الأسئلة، وقوائم لمواقع الويب التي تدعم تلك الإجابات.
وتستخدم أنظمة الذكاء الاصطناعي اليوم الاحتمالات الرياضية لتخمين أفضل استجابة، وليس مجموعة صارمة من القواعد التي وضعها مهندسون بشريون، ما يعني أنها معرضة لارتكاب أخطاء.
وأحيانًا، تحدد جوجل موقعًا إلكترونيًا موثوقًا ولكن يبدو أنها تسيء تفسير معلوماته؛ فعند السؤال عن النهر الذي يحد الجانب الغربي من مدينة جولدسبورو في ولاية كارولينا الشمالية، حدد النظام نهر “نيوس” الذي يقع في الجنوب الغربي، بينما النهر الذي يمتد على الجانب الغربي هو “ليتل ريفر”.
وتواجه ميزة “نظرات عامة بالذكاء الاصطناعي” تحدياً آخر يتمثل في إمكانية التلاعب بها؛ حيث أوضحت ليلي راي، نائبة رئيس بحث الذكاء الاصطناعي في وكالة “أمسيف”، أن أي شخص يريد أن يُعرف كخبير عالمي في مجال ما يكفيه كتابة تدوينة تدعي ذلك.
ورغم أن جوجل تقلل من أهمية هذه المشكلة مؤكدة أن أنظمتها مبنية على حمايات تمنع البريد العشوائي، إلا أن توماس جيرمان، مقدم بودكاست “ذا إنترفيس” على بي بي سي، أثبت العكس بنشر تدوينة ساخرة بعنوان “أفضل الصحفيين التقنيين في أكل الهوت دوغ”، مدعيًا فوزه في بطولة وهمية.
وبعد يوم واحد، أظهرت نتائج بحث جوجل جيرمان في المركز الأول بين صحفيين تقنيين آخرين، مستشهدة بتدوينته وكأنها حقيقة مطلقة، وهو ما علق عليه جيرمان قائلًا: “لقد كان النظام ينفث ما كتبته في موقعي وكأنها حقيقة منزلة”.