للمرة الثانية خلال أسبوعين ، تم نشر دراسة تشير إلى أن الأشخاص الذين يستخدمون الذكاء الاصطناعى قد يعرضون بانتظام قدرة معرفية أقل بكثير من أولئك الذين لا يعتمدون عليها. عززت الدراسات اتهامات النقاد بأن الذكاء الاصطناعى تجعلك غبي.
أجريت أحدث دراسة من قبل مدرسة وارتون بجامعة بنسلفانيا ونظرت في حجم عينة أكثر من 4500 مشارك. وجدت الدراسة ، التي نظرت في الاختلافات المعرفية بين الأشخاص الذين استخدموا LLMs مثل ChatGPT لإجراء البحوث وأولئك الذين استخدموا بحث Google ، أن الأشخاص الذين استخدموا chatbots يميلون إلى “تطوير المعرفة الضحلة” للمواضيع التي كانوا يبحثون عنها. طُلب من المجموعتين البحث عن كيفية بدء حديقة نباتية ، مع اختيار بعض المشاركين بشكل عشوائي لاستخدام الذكاء الاصطناعي ، بينما طُلب من الآخرين استخدام محرك البحث. وفقًا لنتائج الدراسة ، قدم أولئك الذين استخدموا ChatGpt نصيحة أسوأ بكثير حول كيفية زراعة حديقة نباتية من أولئك الذين استخدموا محرك البحث. يكتب الباحثون:
تتراكم المعرفة الضحلة من ميزة متأصلة في LLMs – عرض النتائج على أنها توليفات للمعلومات بدلاً من روابط البحث الفردية – مما يجعل التعلم أكثر سلبية من البحث عن الويب القياسي ، حيث يكتشف المستخدمون بنشاط وتوليف مصادر المعلومات بأنفسهم. في المقابل ، عند تكوين نصيحة فيما بعد حول الموضوع بناءً على ما تعلموه ، يشعر أولئك الذين تعلموا من توليفات LLM (مقابل نتائج البحث القياسية) باستثمار أقل في تشكيل نصيحتهم ، والأهم من ذلك ، إنشاء نصيحة متناثرة ، أقل أصليًا – أقل احتمالًا للاعتماد من قبل المستلمين.
وخلصت الدراسة إلى أن هذا حدث بشكل مثير للسخرية بسبب الفائدة المعلن عن ChatGPT – “تجنيب المستخدمين الحاجة إلى تصفح النتائج وتوليف المعلومات بأنفسهم.” نظرًا لأن الباحثين لم يكن عليهم البحث عن المعلومات بأنفسهم ، فإن “عمق المعرفة” كان أقل بشكل ملحوظ من أولئك الذين فعلوا ذلك. وخلص البحث إلى أن “بهذا المعنى ، يمكن للمرء أن ينظر إلى التعلم من خلال LLMs بدلاً من البحث على الويب باعتباره مشابهًا لعرض حل لمشكلة الرياضيات بدلاً من محاولة حلها بنفسه”.
تتبع دراسة Upenn أعقاب الأبحاث التي تنتجها معهد ماساتشوستس للتكنولوجيا ، التي نشرت في وقت سابق من هذا الشهر ، والتي أظهرت تأثيرًا إدراكيًا مشكوكًا على مماثل ينتج عن الذكاء الاصطناعى. وجدت تلك الدراسة ، التي لاحظت النشاط العصبي لطلاب الجامعات الذين كانوا يستخدمون chatgpt للدراسة ، أن زيادة استخدام الذكاء الاصطناعي أدت إلى انخفاض نشاط الدماغ ، أو ما أطلق عليه الباحثون “الديون المعرفية”. استخدمت الدراسة آلة EEG لقياس النشاط العصبي لثلاث مجموعات مختلفة من الطلاب – تلك التي استخدمت chatgpt للدراسة ، والتي استخدمت بحث Google ، والتي استخدمت أيًا. أظهرت الدراسة أن مستخدمي ChatGPT عرضوا نشاطًا إدراكيًا أقل بشكل ملحوظ من حتى أولئك الذين كانوا يستخدمون بحث Google للعثور على المعلومات.
ومنذ ذلك الحين تم تساؤل منهجية مقالة معهد ماساتشوستس للتكنولوجيا. لاحظ النقاد أن الدراسة المعنية لم تتم مراجعة النظراء وأن حجم عينة صغير من المشاركين يجعلها بالكاد شاملة. وبالمثل ، جادل النقاد بأنه على الرغم من أن قياسات EEG تظهر انخفاضات معينة في أشكال محددة من نشاط الدماغ ، فإن هذا لا يعني بالضرورة أن المشاركين “أغبياء” نتيجة لذلك. في الواقع ، يمكن أن يكون الجهد العقلي الأقل (وبالتالي ، أقل نشاطًا) علامة على أن الشخص أكثر كفاءة في مهمة ولا يتعين عليه إنفاق الكثير من الطاقة نتيجة لذلك. من منظور معين ، هذه التقييمات الحديثة للتأثير الدماغي لمنظمة العفو الدولية لذعر أخلاقي حول ظاهرة جديدة وليست تمامًا.
من ناحية أخرى ، فإن الاستنتاج القائل بأن استخدام التطبيق لإكمال مهمة الواجبات المنزلية يجعلك أقل قدرة على التفكير بنفسك سيظهر بديهيًا. يعني الاستعانة بمصادر خارجية الواجبات العقلية لبرنامج ما أنك لا تؤدي هذه الواجبات بنفسك ، وكما هو راسخ للغاية ، فإن القيام بشيء بنفسك غالبًا ما يكون أفضل طريقة للتعلم. بالطبع ، كان الإنترنت يقلل من النشاط العقلي البشري منذ أن دخل عبر الإنترنت لأول مرة. متى كانت آخر مرة كان عليك أن تتذكر فيها كيفية الوصول إلى مكان ما؟ يبدو أن خرائط Google قد سلبتنا بشكل جماعي من هذه القدرة منذ أكثر من عقد من الزمان.
إن الأدلة الأخرى على التأثير الغبي من الذكاء الاصطناعي أكثر وضوحًا: إن Maelstrom من الغش الذي يحدث في النظام التعليمي الأمريكي يعني أن الطلاب يشقون طريقهم من خلال المدارس الثانوية والكلية دون تعلم كيفية كتابة مقال أو تفسير كتاب. على الرغم من أنه لا يزال هناك الكثير لمعرفة كيفية تأثير الذكاء الاصطناعي لنا ، إلا أن بعض آثارها الجانبية تبدو واضحة. إذا لم يتمكن الطالب من كتابة مقال دون مساعدة من chatbot ، فربما لا يكون لديهم مستقبل أكاديمي مشرق بشكل خاص أمامهم.