إذا كنت قد سئمت من نتائج البحث التي تعمل بمنظمة العفو الدولية من Google التي تقودك إلى ضلال المعلومات السيئة من المصادر السيئة ، فهناك بعض الأخبار الجيدة. اتضح أنه إذا قمت بتضمين أي شبقات في استعلام البحث الخاص بك ، فلن تقوم Google بإرجاع نظرة عامة على الذكاء الاصطناعي ، كما يطلق عليها ، في أعلى صفحة النتائج.
على سبيل المثال ، إذا بحثت “ما مدى حجم طالب جامعة جامعة ييل؟” ستعود صفحة نتائج البحث إلى عملية نشر كبيرة تم إنشاؤها من الذكاء الاصطناعي فوق الروابط الزرقاء. إذا بحثت بدلاً من ذلك ، “ما مدى حجم جسم الطلاب اللعين في جامعة ييل؟” ستحصل بدلاً من ذلك على قائمة قياسية لنتائج الارتباط الأزرق ، ملخص Sans-AI.
ليست هذه هي المرة الأولى التي تكتشف فيها عمليات النقل على الإنترنت طريقة لتعطيل نتائج Google التي تعمل بمنظمة العفو الدولية. ومع ذلك ، فإن الطرق الأخرى أكثر تعقيدًا ، مثل إضافة سلسلة محددة من الأحرف إلى عنوان url لنتائج البحث. هذه الطريقة من اليمين والترافعة في Google إلى “تعطيني فقط الروابط سخيف” هي أكثر سهلة.
سنخرج على أحد الأطراف هنا ونقول إنه إذا كان الناس يجدون بانتظام تقنيات لتعطيل ملخصات الذكاء الاصطناعى في عمليات البحث عن Google ، فربما يعني ذلك أنهم لا يريدونها في المقام الأول؟ لم تكن نتائج بحث Google مثالية أبدًا ، بالطبع – لا يزال هناك الكثير من المعلومات السيئة عبر الويب. لكن ملخصات الذكاء الاصطناعى تقدم للمستخدمين بذابة بارزة في الجزء العلوي من بحثهم يبدو موثوقًا عندما يخاطر فقط بمضاعفة مشكلة المعلومات الخاطئة مع الانحدار الأكثر خطأ.
إنها بنفس الطريقة التي أصبحت بها سيري سوءًا من خلال دمجها مع chatgpt. على الأقل في الماضي ، عندما لم يكن مساعد الصوت يعرف كيفية الإجابة على سؤال ، فإنه سيقوم فقط بإلقاء المستخدمين على الويب. الآن يقدم Siri استجابات تم إنشاؤها بواسطة ChatGPT بدلاً من ذلك ، وأحيانًا تبصق هراء غير صحيح بدلاً من الاعتراف بأنه غير متأكد. ولكن كل هذا يتم إجباره على المستخدمين سواء أحبوا ذلك أم لا. من مستندات Google إلى X و Instagram ، هناك أزرار منظمة العفو الدولية وصناديق البحث والمنسدلة في كل مكان الآن ، لأن كل شركة تقنية تحتاج إلى استراتيجية منظمة العفو الدولية. هل البحث عن الكلمات الرئيسية الأساسية أكثر من اللازم لطرحه؟
عندما قدمت Google نظرة عامة على الذكاء الاصطناعي لأول مرة في البحث ، أصبحت فيروسية لإعادة الاستجابات غير المنطقية ، مثل الإشارة إلى أنه يمكن للمرء أن يمنع الجبن من الانزلاق من البيتزا عن طريق استخدام الغراء أو تحسين صحة الأمعاء عن طريق تناول الحصى. ويعتقد أن نموذج Google قد حصل على المعلومات من تعليقات Reddit. الذكاء الاصطناعي لا يعرف كيفية تحديد السخرية أو الهجاء.
ARS Technica تم الإبلاغ عنه في وقت سابق عن الثغرة الجديدة ، والتي ، إذا كنا نتكهن ، يحدث بسبب توجيه Google الحذر بشكل مفرط لنموذج الذكاء الاصطناعي. في حين أن الروبوت مثل Xai's Grok يسعدني أن أقسم ومناقشة الموضوعات الحساسة ، فإن Gemini من Google تبقيه PG. من المحتمل أن تقوم Google بتدريب Gemini على تجنب تكرار الشتائم ، لذلك يتم تعطيلها ببساطة عند البحث عند وجود كلمة لعنة لتجنب ذلك.
جادلت Google بأن نظرة عامة على الذكاء الاصطناعى ، كما يطلق عليها ، لا تقلل من حركة المرور المرسلة إلى مواقع الويب لأن المستخدمين سيشاهدون الملخصات ويهتمون بالتخلي عن مادة المصدر بعد العثور على شيء مهم. هذا المنطق لم يريح شركات الوسائط ، التي كانت تتقاضى أمثال Openai و Perplexity في تناول محتواها في نماذج لغة كبيرة.
نتخيل أن Google ستغلق ثغرة بذيئة في نهاية المطاف ، ولكن في غضون ذلك ، إذا كنت سئمت من الذكاء الاصطناعى ، فأنت تعرف الآن طريقة سهلة لتجنب ذلك. فقط أخبر Google أن تمنحك روابط سخيف.