يُعتبر ChatGPT أداة مفيدة، ولكنه أيضًا مصدر للهلوسة، حيث يختلق الحقائق أحيانًا ليعطي انطباعًا بالثقة. هذه الهلوسة يمكن أن تكون خطيرة، خاصة عند البحث عن حقائق تاريخية أو بيانات دقيقة.
عند اختبار ChatGPT، وجدنا أنه يختلق رسائل بريد إلكتروني وأسماء وأماكن، مما يجعله غير موثوق به في بعض الأحيان. وفي المقابل، كان أداء Google Gemini أفضل في التعامل مع الحقائق، حيث أظهر قدرة على التحقق من صحة الادعاءات.
ChatGPT والهلوسة حول تاريخ السيارات الكهربائية
عندما سُئل ChatGPT عن سيارة كهربائية حقيقية من الأربعينيات، اختلق تفاصيل حول سيارة Henney Kilowatt الكهربائية وشاحنات Morrison الكهربائية. ومع ذلك، أوضح Google Gemini أن هذه الادعاءات غير صحيحة، حيث ظهرت Henney Kilowatt لأول مرة في عام 1959، وشاحنات Morrison غير موجودة أصلاً.
اختلاق الحقائق حول القضايا القانونية
عندما سُئل ChatGPT عن قضايا قانونية تتعلق ببيع سيارة، اختلق تفاصيل حول قضايا لم تحدث أبدًا. وأشار Google Gemini إلى أن هذه الادعاءات ملفقة أو تم تحريفها لتناسب السؤال.
الأخطاء في الاستشهادات الأكاديمية
عندما سُئل ChatGPT عن اقتباسات أكاديمية حول تأثير وسائل التواصل الاجتماعي، اختلق تفاصيل حول الدراسات والمؤلفين. وأشار Google Gemini إلى أن هذه الادعاءات غير صحيحة، حيث تم خلط المعلومات الحقيقية مع التفاصيل الملفقة.
من الواضح أن ChatGPT يخترع الحقائق في بعض الأحيان، مما يجعله غير موثوق به. ومع ذلك، يمكن تحسين أدائه من خلال التدريب والتحقق من الحقائق. وفي النهاية، يجب على المستخدمين أن يكونوا حذرين عند استخدام أدوات الذكاء الاصطناعي، والتحقق من صحة المعلومات قبل استخدامها.
