يتزايد القلق بشأن دقة المعلومات على الإنترنت مع قيام نماذج الذكاء الاصطناعي التوليدية، مثل ChatGPT، بفهرسة محتوى تم إنشاؤه بواسطة أنظمة ذكاء اصطناعي أخرى. وقد كشفت تقارير حديثة أن ChatGPT 5.2 يقوم بفهرسة موسوعة Grokipedia، وهي منصة أنشأتها شركة xAI التابعة لإيلون ماسك، والتي تشتهر بميلها نحو المعلومات غير الدقيقة ونظريات المؤامرة. هذا التطور يثير تساؤلات حول موثوقية المعلومات التي تقدمها هذه النماذج وتأثيرها على المعرفة العامة.
تأثير الذكاء الاصطناعي على دقة المعلومات: تحدي ChatGPT
تعتبر Grokipedia بديلاً محافظاً للويكيبيديا، وفقاً لرؤية إيلون ماسك، الذي يرى أن الويكيبيديا منحازة. ومع ذلك، فإن هذه الموسوعة التي تعتمد بشكل كبير على نموذج اللغة Grok، غالباً ما تحتوي على معلومات مضللة و”هلوسات” الذكاء الاصطناعي بمعدلات أعلى من النماذج الأخرى. وقد لوحظ أن النظام يروج لمحتوى مثير للجدل، بما في ذلك نظريات المؤامرة.
وفقاً لتحقيق أجرته صحيفة The Guardian، فإن ChatGPT 5.2 يختار المعلومات التي يستقيها من Grokipedia بشكل انتقائي. في حين أنه يتجنب تكرار الأكاذيب الأكثر وضوحاً، فإنه يعيد معلومات من Grokipedia حول مواضيع حساسة مثل الخلافات السياسية في إيران أو منكري الهولوكوست.
تزايد المحتوى المُنشأ بواسطة الذكاء الاصطناعي
تكمن المشكلة الأكبر في الحجم الهائل من النصوص التي تنتجها نماذج الذكاء الاصطناعي. تشير التقديرات إلى أن أكثر من نصف المقالات الجديدة المنشورة على الإنترنت في أواخر عام 2025 تم إنشاؤها بواسطة هذه النماذج. هذا يؤدي إلى حلقة مفرغة حيث تقوم أنظمة الذكاء الاصطناعي بفهرسة وتكرار أخطاء بعضها البعض، مما قد يؤدي إلى تآكل المعرفة الموثوقة.
بالإضافة إلى ذلك، يمكن استغلال هذه الطبيعة التكرارية لنشر معلومات مضللة بشكل متعمد. وقد لوحظ أن نموذج Gemini AI من Google يكرر المواقف الرسمية للحزب الشيوعي الصيني فيما يتعلق بانتهاكات حقوق الإنسان. كما يعتقد بعض الباحثين الأمنيين أن روسيا تستخدم نماذج الذكاء الاصطناعي لنشر الدعاية بهدف دمجها في أنظمة لغوية أخرى.
مخاوف أمنية وسلوكيات غير مقبولة
أثارت Grok نفسها جدلاً واسعاً بسبب تكرارها لمواد تحض على الكراهية، وحتى تبنيها شخصية مثيرة للجدل. كما واجهت xAI اتهامات بإنشاء ملايين الصور الإباحية التي تصور قاصرين باستخدام أدوات متاحة على منصة X. وقد أدت هذه الحوادث إلى فتح تحقيقات في عدة دول، بما في ذلك إندونيسيا وماليزيا اللتين منعتا الوصول إلى Grokipedia بشكل كامل.
لا يزال السبب وراء قرار OpenAI بدمج مخرجات Grok في ChatGPT غير واضح. قد يكون ذلك نتيجة للحاجة المستمرة لنماذج اللغات الكبيرة إلى بيانات جديدة للتكيف والتحسين، مما يجعلها غير قادرة على اختيار مصادرها بشكل انتقائي. أو قد يكون هناك اعتبار استراتيجي يتعلق بتحليل أداء المنافسين.
تتزايد الحاجة إلى تطوير آليات للتحقق من صحة المعلومات التي تنتجها نماذج الذكاء الاصطناعي وتحديد مصادرها. يجب على الشركات المطورة لهذه النماذج تحمل مسؤولية أكبر عن المحتوى الذي تقدمه، واتخاذ خطوات فعالة لمنع انتشار المعلومات المضللة.
من المتوقع أن تشهد الأشهر القادمة المزيد من النقاش حول تنظيم استخدام الذكاء الاصطناعي التوليدي وضمان موثوقية المعلومات على الإنترنت. ستكون هناك حاجة إلى تعاون دولي لوضع معايير مشتركة ومواجهة التحديات التي تفرضها هذه التكنولوجيا المتطورة. من المهم مراقبة التطورات في هذا المجال، وخاصةً الجهود المبذولة لتحسين دقة نماذج الذكاء الاصطناعي ومنع استخدامها في نشر المعلومات المضللة.
