يتم بيع روبوتات الدردشة ذات الذكاء الاصطناعي مثل ChatGPT من OpenAI كأدوات ثورية يمكن أن تساعد العمال على أن يصبحوا أكثر كفاءة في وظائفهم، وربما تحل محل هؤلاء الأشخاص بالكامل في المستقبل. ولكن مذهلة دراسة جديدة وجدت أن ChatGPT يجيب على أسئلة برمجة الكمبيوتر بشكل غير صحيح بنسبة 52% من الوقت.
البحث من جامعة بوردو، رصدته وسائل الإعلام لأول مرة مستقبلية، تم تقديمه في وقت سابق من هذا الشهر في مؤتمر التفاعل بين الكمبيوتر والإنسان في هاواي ونظرت في 517 سؤالًا برمجيًا على Stack Overflow والتي تم إرسالها بعد ذلك إلى ChatGPT.
وأوضحت الدراسة الجديدة: “يظهر تحليلنا أن 52% من إجابات ChatGPT تحتوي على معلومات غير صحيحة و77% منها مطولة”. “ومع ذلك، لا يزال المشاركون في دراسة المستخدمين يفضلون إجابات ChatGPT بنسبة 35% من الوقت نظرًا لشموليتها وأسلوبها اللغوي الواضح.”
ومن المثير للقلق أن المبرمجين المشاركين في الدراسة لم يتمكنوا دائمًا من اكتشاف الأخطاء التي يرتكبها برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي.
ومع ذلك، فقد تجاهلوا أيضًا المعلومات الخاطئة في إجابات ChatGPT بنسبة 39% من الحالات، وفقًا للدراسة. “وهذا يعني الحاجة إلى مواجهة المعلومات الخاطئة في إجابات ChatGPT على أسئلة البرمجة وزيادة الوعي بالمخاطر المرتبطة بالإجابات التي تبدو صحيحة.”
من الواضح أن هذه مجرد دراسة واحدة متاحة لـ اقرأ على الانترنت، ولكنه يشير إلى مشكلات يمكن أن يرتبط بها أي شخص يستخدم هذه الأدوات. تضخ شركات التكنولوجيا الكبرى مليارات الدولارات في مجال الذكاء الاصطناعي في الوقت الحالي في محاولة لتقديم روبوتات الدردشة الأكثر موثوقية. تتنافس شركات ميتا ومايكروسوفت وجوجل للسيطرة على مساحة ناشئة لديها القدرة على إعادة تشكيل علاقتنا بالإنترنت بشكل جذري. ولكن هناك عدد من العقبات التي تقف في الطريق.
ومن أهم هذه المشاكل أن الذكاء الاصطناعي لا يمكن الاعتماد عليه في كثير من الأحيان، خاصة إذا طرح مستخدم معين سؤالاً فريدًا حقًا. بحث Google الجديد المدعوم بالذكاء الاصطناعي مستمر ينفث القمامة والتي غالبًا ما يتم استخلاصها من مصادر غير موثوقة. في الواقع، كانت هناك عدة مرات هذا الأسبوع قدم فيها بحث Google مقالات ساخرة من The Onion باسم معلومات يمكن الاعتماد عليها.
ومن جانبها، تدافع جوجل عن نفسها من خلال الإصرار على أن الإجابات الخاطئة تعتبر شذوذات.
وقال متحدث باسم جوجل لموقع Gizmodo عبر البريد الإلكتروني: “الأمثلة التي رأيناها هي عمومًا استفسارات غير شائعة جدًا، ولا تمثل تجارب معظم الأشخاص”. في وقت سابق من هذا الأسبوع. “توفر الغالبية العظمى من عروض الذكاء الاصطناعي معلومات عالية الجودة، مع روابط للتعمق أكثر على الويب.”
لكن هذا الدفاع بأن “الاستفسارات غير المألوفة” تظهر إجابات خاطئة، مثير للضحك بصراحة. هل من المفترض أن يطرح المستخدمون على روبوتات الدردشة هذه الأسئلة الأكثر دنيوية فقط؟ كيف يكون ذلك مقبولا، في حين أن الوعد هو أن هذه الأدوات من المفترض أن تكون ثورية؟
لم تستجب OpenAI على الفور لطلب التعليق يوم الجمعة حول الدراسة الجديدة حول إجابات ChatGPT. سيقوم Gizmodo بتحديث هذا المنشور إذا سمعنا ردًا.