بدأ ظهور محتوى من موقع “جروكيبيديا” (Grokipedia) المثير للجدل، والتابع لإيلون ماسك، كمصدر في ردود نماذج الذكاء الاصطناعي التوليدية مثل ChatGPT، مما يثير تساؤلات حول جودة المعلومات التي تعتمد عليها هذه الأنظمة ومستقبل الوصول إلى المعرفة الموثوقة على الإنترنت. وقد لاحظ خبراء ومستخدمون أن هذه الاستشهادات تزداد، مما يشير إلى تأثير متزايد للمنصة الجديدة على المشهد الرقمي.
أفادت صحيفة الغارديان أن أحدث إصدارات نماذج OpenAI، تحديدًا GPT-5.2، استشهدت بـ “جروكيبيديا” في تسع مناسبات على الأقل أثناء الإجابة على أكثر من عشرة أسئلة مختلفة، تتعلق بمواضيع متنوعة مثل الأنظمة السياسية في إيران وسيرة المؤرخ البريطاني السير ريتشارد إيفانز. وقد تمكنت Gizmodo أيضًا من التحقق من هذه الظاهرة، حيث أنتجت ردودًا مماثلة من ChatGPT عند طرح استفسارات مشابهة.
“جروكيبيديا” وتأثيرها على الذكاء الاصطناعي التوليدي
أطلق إيلون ماسك “جروكيبيديا” في أكتوبر الماضي بهدف تقديم بديل لموقع ويكيبيديا، مع التركيز على إزالة دور المحررين البشريين في عملية إنشاء المحتوى. وقد صرح ماسك سابقًا أن “جروكيبيديا” ستمثل “تحسينًا هائلاً” مقارنة بويكيبيديا، معربًا عن استيائه من التحيز المزعوم في ويكيبيديا، خاصةً فيما يتعلق بالآراء السياسية اليمينية.
يعتمد “جروكيبيديا” على الذكاء الاصطناعي لإنشاء المقالات، وغالبًا ما يستقي محتواه من ويكيبيديا مع تقديم منظور قد يتماشى مع وجهات نظر ماسك السياسية. هذا الاختلاف في الإطار يظهر بوضوح في تغطية بعض الأحداث والقضايا المثيرة للجدل.
أمثلة على التباين في المعلومات
على سبيل المثال، تصف “جروكيبيديا” أحداث السادس من يناير 2021 في مبنى الكابيتول الأمريكي بأنها “أعمال شغب” احتجاجًا على نتائج الانتخابات الرئاسية لعام 2020. في المقابل، تصف ويكيبيديا هذه الأحداث بأنها “هجوم” على الكابيتول، وتعتبرها محاولة انقلاب.
بالإضافة إلى ذلك، تقدم “جروكيبيديا” تصنيفًا لـ “بريطانيا أولاً” (Britain First) باعتباره “حزبًا سياسيًا بريطانيًا يمينيًا متطرفًا يدعو إلى السيادة الوطنية”، بينما تصفه ويكيبيديا بأنه “حزب سياسي فاشي جديد ومجموعة كراهية”. هذا التباين يسلط الضوء على الاختلافات في كيفية التعامل مع القضايا الحساسة.
تتعامل “جروكيبيديا” أيضًا بشكل أكثر تساهلاً مع “نظرية الاستبدال العظيم” (Great Replacement Theory)، وهي فكرة مؤامرة تدعي أن هناك جهودًا منهجية لاستبدال السكان البيض بأعراق أخرى. بينما تصف ويكيبيديا هذه النظرية بوضوح على أنها نظرية مؤامرة، فإن “جروكيبيديا” تقدمها بمنظور أقل انتقادًا.
مخاطر تلوث البيانات وتدهور النماذج
يثير ظهور “جروكيبيديا” كمصدر في نماذج الذكاء الاصطناعي التوليدية مخاوف بشأن “تلوث البيانات” (data contamination) واحتمال تدهور جودة هذه النماذج. حذر الباحثون من أن الجهات الخبيثة قد تسعى إلى إغراق الإنترنت بمحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي بهدف التأثير على هذه النماذج، وهي عملية تعرف أحيانًا باسم “الاستمالة” (LLM steering).
تشير البيانات إلى أن “جروكيبيديا” لم تحقق بعد نفس مستوى الشعبية الذي تتمتع به ويكيبيديا. فقد انخفض عدد زوار الموقع من 460 ألفًا في الولايات المتحدة في 28 أكتوبر إلى حوالي 30 ألفًا يوميًا، بينما تستقبل ويكيبيديا مئات الملايين من المشاهدات يوميًا. وقد أثار هذا الأمر تكهنات بأن “جروكيبيديا” قد لا يكون مخصصًا للاستهلاك البشري المباشر، بل يهدف إلى التأثير على نماذج الذكاء الاصطناعي.
وفقًا لدراسة أجريت عام 2024، يمكن أن يؤدي التدريب المتزايد لنماذج اللغات الكبيرة على البيانات التي تنتجها أنظمة الذكاء الاصطناعي الأخرى إلى “انهيار النموذج” (model collapse). في هذه الحالة، تفقد النماذج التباين وتتدهور جودتها، خاصةً فيما يتعلق بتمثيل البيانات الأقل شيوعًا. مع استمرار النماذج في التدريب على نصوص أقل دقة، قد تفقد قدرتها على إنتاج مخرجات ذات معنى.
أكدت OpenAI لصحيفة الغارديان أن نماذجها “تهدف إلى الاستفادة من مجموعة واسعة من المصادر ووجهات النظر المتاحة للعامة”، وأنها تطبق “مرشحات أمان” لتقليل مخاطر ظهور روابط مرتبطة بمحتوى ضار. كما أشارت إلى أن ChatGPT يوضح المصادر التي استند إليها في إجاباته من خلال الاستشهادات.
لم ترد Anthropic، الشركة المطورة لنموذج Claude، على طلبات التعليق من Gizmodo حتى الآن.
من المتوقع أن تواصل OpenAI و Anthropic مراقبة مصادر المعلومات التي تعتمد عليها نماذجها، وتعديل مرشحات الأمان الخاصة بها لتقليل تأثير المحتوى غير الموثوق به. سيكون من المهم أيضًا مراقبة تطور “جروكيبيديا” وتأثيرها المحتمل على جودة المعلومات المتاحة على الإنترنت، وتقييم المخاطر المرتبطة بـ “انهيار النموذج” في المستقبل القريب.
