حسب تقرير لصحيفة The Guardian البريطانية فإن هذا يعني أن المستخدمين يجب أن يروا عدداً أقل من الإجابات عن أسئلة مثل "متى اغتال سنوبي أبراهام لينكولن؟"، والتي كانت الخدمة تستجيب لها بمرح، معطيةً إجابة بها التاريخ الصحيح، ولكن القاتل الخطأ بناءً على السؤال.
حيث قال رئيس قسم البحث في شركة جوجل، باندو ناياك، في منشور يعلن عن التغييرات: "من الواضح أن هذه ليست الطريقة الأكثر فائدة لعرض هذه النتيجة، لقد دربنا أنظمتنا على التحسن في اكتشاف هذه الأنواع من المقدمات الخاطئة، والتي ليست شائعة، ولكن هناك حالات لا يكون فيها من المفيد إظهار مقتطف مميز. لقد قللنا من تشغيل المقتطفات المميزة في هذه الحالات بنسبة 40% مع هذا التحديث".
كما أضافت الصحيفة البريطانية أن المقتطفات، التي تظهر أحياناً كاستجابة مميزة للأسئلة المباشرة التي تُطرح على بحث جوجل، لطالما كانت حجر الزاوية في إستراتيجية الذكاء الاصطناعي للشركة.
لكن المقتطفات التي يتم إنشاؤها تلقائياً من محتويات مواقع الويب، كانت أيضاً شوكة في خاصرة جوجل لفترة طويلة.
إذ إنه في عام 2017، اتُّهمت الشركة بنشر "أخبار كاذبة" بعد مقتطف مميز للاستعلام "هل يخطط أوباما لانقلاب؟"، مما أدى إلى قيام مساعدها الصوتي بإخبار المستخدمين بمرح: "ربما يخطط أوباما في الواقع لانقلاب شيوعي" بنهاية ولايته في عام 2016″.
يقول ناياك: "هذا لا يعني أنه لا توجد معلومات مفيدة متاحة، أو أن نتيجة معينة ذات جودة منخفضة"، وأضاف: "توفر هذه الإشعارات سياقاً حول المجموعة الكاملة من النتائج على الصفحة، ويمكنك دائماً رؤية نتائج استعلامك، حتى في حالة وجود الاستشارة".
المصدر: عربي بوست