أثارت تجربة حديثة مخاوف جدية بشأن الاعتماد على الذكاء الاصطناعي التوليدي كمصدر موثوق للأخبار، حيث كشفت عن قيام روبوتات الدردشة بتلفيق مصادر إخبارية ونشر معلومات كاذبة. وقد سلطت هذه النتائج الضوء على الحاجة إلى توخي الحذر الشديد عند استخدام هذه الأدوات للحصول على الأخبار والمعلومات.
أجرت مجلة “The Conversation” تحقيقًا استمر لمدة شهر، حيث اختبرت سبعة أنظمة ذكاء اصطناعي توليدية، بما في ذلك Gemini من Google وChatGPT من OpenAI، لتقييم قدرتها على تقديم ملخصات دقيقة للأخبار في كيبيك. وقد كشف التحقيق عن أخطاء متكررة، بما في ذلك اختلاق مصادر وهمية وتقديم معلومات مضللة.
مخاطر الاعتماد على الذكاء الاصطناعي التوليدي في الأخبار
أظهرت التجربة أن نظام Gemini التابع لشركة جوجل قام باختراع موقع إخباري وهمي باسم examplefictif.ca ونشر تقريرًا كاذبًا عن إضراب لسائقي الحافلات المدرسية في عام 2025. في الواقع، كان سبب التعطيل هو مشكلة فنية في حافلات Lion Electric. لم تكن هذه الحادثة منعزلة، حيث ارتكبت الأنظمة الأخرى أخطاء مماثلة.
ووفقًا لتقرير معهد رويترز للصحافة الرقمية، يعتمد حوالي 6٪ من الكنديين بالفعل على الذكاء الاصطناعي التوليدي كمصدر للأخبار. وهذا يثير قلقًا بالغًا، حيث أن هذه الأدوات قد تنشر معلومات مضللة دون قصد، خاصةً عندما تقدم ردودها بثقة ودون إخلاء مسؤولية واضحة.
أوجه القصور في دقة المعلومات
أظهرت النتائج أن 37٪ فقط من الردود المقدمة تضمنت عناوين URL كاملة ومصادر واضحة. وكانت الملخصات دقيقة تمامًا في أقل من نصف الحالات، وغالبًا ما كانت تحتوي على معلومات غير كاملة أو مضللة. بالإضافة إلى ذلك، أضافت بعض الأدوات “استنتاجات توليدية” غير مدعومة، مما قد يؤدي إلى خلق قصص غير موجودة.
لم تقتصر الأخطاء على اختلاق المعلومات، بل شملت أيضًا تشويه الحقائق. فقد أخطأت بعض الأدوات في الإبلاغ عن معاملة طالبي اللجوء أو تحديد الفائزين في الأحداث الرياضية. وارتكبت أخرى أخطاء واقعية في بيانات الاستطلاعات أو الظروف الشخصية. هذه الأخطاء تشير إلى أن الذكاء الاصطناعي لا يزال يواجه صعوبة في التمييز بين تلخيص الأخبار واختلاق السياق.
تأثير المعلومات المضللة
تتوافق هذه النتائج مع مراجعة أوسع للصناعة، حيث وجد تقرير حديث صادر عن 22 مؤسسة إعلامية للخدمة العامة أن ما يقرب من نصف الإجابات الإخبارية التي يولدها الذكاء الاصطناعي تحتوي على مشكلات كبيرة، بدءًا من مشاكل تحديد المصادر وصولًا إلى الأخطاء الجسيمة. هذا يشير إلى أن الروبوتات الذكية قد لا تكون جاهزة بعد لتولي دور موثوق في تقديم الأخبار.
بالإضافة إلى ذلك، فإن انتشار الأخبار الكاذبة التي يولدها الذكاء الاصطناعي يمكن أن يؤثر سلبًا على الثقة العامة في وسائل الإعلام. وهذا يمكن أن يؤدي إلى زيادة الاستقطاب وتدهور الخطاب العام. لذلك، من الضروري تطوير آليات للتحقق من صحة المعلومات التي تقدمها هذه الأدوات.
في المستقبل القريب، من المتوقع أن تشهد هذه الأدوات تحسينات في دقتها وموثوقيتها. ومع ذلك، من المهم أن يظل المستخدمون حذرين وأن يتحققوا من صحة المعلومات من مصادر موثوقة قبل تصديقها. كما يجب على مطوري هذه الأدوات الاستمرار في العمل على تحسين قدرتها على التمييز بين الحقائق والأكاذيب. من المرجح أن يتم التركيز على تطوير آليات أفضل لتحديد المصادر والتحقق من صحة المعلومات في الأشهر القادمة.
