أظهر بحث حديث أن نماذج الذكاء الاصطناعي قد تكون متفائلة بشكل مفرط في تقييمها لقدرات التفكير العقلاني لدى البشر. وخلص الباحثون إلى أن أنظمة الذكاء الاصطناعي الرائدة، مثل ChatGPT و Claude، تميل إلى افتراض أن الأفراد يتخذون قرارات أكثر منطقية واستراتيجية مما هو الحال في الواقع، خاصة في المواقف التي تتطلب التفكير المعقد.
تأتي هذه النتائج من دراسة أجريت على نماذج الذكاء الاصطناعي الشائعة، وتثير تساؤلات حول دقة هذه الأنظمة في التنبؤ بالسلوك البشري في مجالات متنوعة مثل الاقتصاد وعلم النفس. وقد أجريت الدراسة من قبل باحثين يهدفون إلى فهم حدود قدرة الذكاء الاصطناعي على فهم العقل البشري.
الذكاء الاصطناعي والتفكير البشري: فجوة في التوقعات
استخدم الباحثون نظرية الألعاب، وتحديدًا لعبة “مسابقة الجمال الكينزية”، لتقييم قدرة الذكاء الاصطناعي على فهم التفكير الاستراتيجي البشري. تعتمد هذه اللعبة على توقع ما سيفكر به الآخرون، وليس فقط على اختيار ما يفضله الفرد شخصيًا.
كيف تم إجراء الاختبار؟
تم تكليف نماذج الذكاء الاصطناعي، بما في ذلك ChatGPT-4o و Claude-Sonnet-4، بالمشاركة في نسخة من اللعبة تسمى “خمن الرقم”. كان على النماذج اختيار رقم بين صفر ومائة، مع العلم أن الفائز هو من يقترب أكثر من نصف متوسط جميع الاختيارات.
تم تزويد النماذج بمعلومات حول خصائص “الخصوم” البشريين، بدءًا من طلاب الجامعات الجدد وصولًا إلى خبراء نظرية الألعاب. طُلب منهم ليس فقط اختيار رقم، بل أيضًا شرح الأسباب الكامنة وراء اختيارهم.
أظهرت النماذج قدرة على تعديل اختياراتها بناءً على خصائص الخصم المفترض، مما يشير إلى مستوى من التفكير الاستراتيجي. ومع ذلك، فقد افترضت باستمرار أن البشر سيتصرفون بشكل أكثر عقلانية ومنطقية مما هو معتاد، مما أدى في كثير من الأحيان إلى اختيارات غير دقيقة.
وفقًا للدراسة، فإن نماذج الذكاء الاصطناعي تكافح من أجل تحديد الاستراتيجيات السائدة التي يستخدمها البشر في الألعاب التنافسية. وهذا يسلط الضوء على التحدي المستمر المتمثل في مواءمة الذكاء الاصطناعي مع السلوك البشري الحقيقي، خاصة في المهام التي تتطلب توقع قرارات الآخرين.
بالإضافة إلى ذلك، تشير النتائج إلى أن هذه الأنظمة قد لا تفهم بشكل كامل التعقيدات النفسية التي تؤثر على اتخاذ القرارات البشرية، مثل التحيزات المعرفية والعواطف.
آثار هذه النتائج على تطبيقات الذكاء الاصطناعي
تأتي هذه النتائج في وقت يتزايد فيه استخدام الذكاء الاصطناعي في مجالات حساسة مثل النمذجة الاقتصادية والتنبؤ بالسلوك الاستهلاكي. فهم حدود قدرة الذكاء الاصطناعي على فهم السلوك البشري أمر بالغ الأهمية لضمان دقة وموثوقية هذه التطبيقات.
تشير الأبحاث الأخرى إلى أن دقة أفضل أنظمة الذكاء الاصطناعي تصل إلى حوالي 69٪ فقط، وأن هذه الأنظمة يمكن أن تحاكي الشخصية البشرية بشكل مقنع، مما يثير مخاوف بشأن التلاعب المحتمل. هذه المخاوف تتطلب المزيد من البحث والتطوير لضمان استخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي.
التعلم الآلي والتحيزات: من المهم ملاحظة أن نماذج الذكاء الاصطناعي تتعلم من البيانات التي يتم تدريبها عليها. إذا كانت هذه البيانات متحيزة، فقد تعكس النماذج هذه التحيزات في تنبؤاتها وقراراتها. لذلك، من الضروري استخدام بيانات تدريب متنوعة وغير متحيزة لضمان عدالة وموضوعية أنظمة الذكاء الاصطناعي.
الذكاء الاصطناعي والنمذجة الاقتصادية: تعتمد النماذج الاقتصادية غالبًا على افتراضات حول السلوك البشري. إذا كانت هذه الافتراضات غير دقيقة، فقد تؤدي إلى تنبؤات غير صحيحة وسياسات غير فعالة. لذلك، من الضروري دمج فهم أكثر واقعية للسلوك البشري في النماذج الاقتصادية.
من المتوقع أن يواصل الباحثون استكشاف هذه الفجوة بين الذكاء الاصطناعي والتفكير البشري. تشمل الخطوات التالية تطوير نماذج أكثر تعقيدًا تأخذ في الاعتبار العوامل النفسية التي تؤثر على اتخاذ القرارات البشرية، بالإضافة إلى جمع المزيد من البيانات حول السلوك البشري في مواقف مختلفة. من المرجح أن يتم نشر المزيد من النتائج في غضون الأشهر الستة إلى الثمانية عشر القادمة، مما قد يؤدي إلى تعديلات في كيفية تصميم وتطبيق أنظمة الذكاء الاصطناعي.
