مع استمرار الذكاء الاصطناعي في التأثير في جوانب حياتنا المختلفة، يزداد اعتمادنا عليه في توجيه قراراتنا، ولكن حتى مع فوائده العديدة وقدراته الاستثنائية، هناك مخاوف من ميلنا إلى الخضوع إليه في المواقف الحرجة وعند الحاجة إلى اتخاذ القرارات الحاسمة والمهمة.
فقد أظهرت دراسة حديثة نُشرت في مجلة Scientific Reports، عن وجود ميل كبير لدى البشر للسماح للذكاء الاصطناعي بالتأثير في قراراتهم المهمة عندما تعرضوا لتجارب افتراضية تحاكي تجارب واقعية.
أولًا: تفاصيل الدراسة:
صمم باحثون في جامعة كاليفورنيا ميرسيد (University of California Merced (سلسلة من التجارب التي وضعت المشاركين في مواقف افتراضية تحاكي مواقف واقعية عظمى للتحقق من ثقة الإنسان بالذكاء الاصطناعي، وخلال التجربة مُنح المشاركين السيطرة على طائرة مسيّرة مسلّحة افتراضية، وكُلفوا بتحديد الأهداف على الشاشة، وطلب من المشاركين التمييز بين رموز الحلفاء والعدو.
بعد اتخاذ قرارهم الأولي، قُدم للمشاركين نصائح من نظام ذكاء اصطناعي، وقد كانت هذه النصائح عشوائية تمامًا ولا تستند إلى أي تحليل فعلي للصور دون أن يكون المشاركين على دراية بذلك.
نتيجة الدراسة:
أظهرت الدراسة تأثر الغالبية بنصائح الذكاء الاصطناعي، فقد غيّر ثلثي المشاركين قراراتهم الأولية عندما اختلف الذكاء الاصطناعي معهم، وقد حدث هذا رغم تصريح المشاركين في البداية بمحدودية قدرات الذكاء الاصطناعي واحتمالية تقديمه لنصائح غير صحيحة.
تأثير اختلاف مظاهر الروبوتات على المشاركين:
لتحديد كون المظهر الخارجي لروبوت الذكاء الاصطناعي يؤثر في مستويات ثقة المشاركين أم لا، استخدم الباحثون في هذه الدراسة مجموعة من أشكال روبوتات الذكاء الاصطناعي، وهي:
- الروبوت الكامل الحجم الذي يشبه الإنسان وموجود في الغرفة معهم.
- روبوت يشبه الإنسان معروض على شاشة.
- روبوتات تشبه الصندوق بدون سمات مجسمة.
أظهرت النتائج أن تأثير الروبوتات الشبيهة بالإنسان كان أقوى قليلًا لكن لم يكن الفرق كبيرًا، وهذا يشير إلى أن ميلنا إلى الثقة بما تقوله روبوتات الذكاء الاصطناعي يمتد إلى ما هو أبعد من التصاميم المجسمة وينطبق حتى على الأنظمة غير الشبيهة بالبشر.
ثانيًا: إلى ماذا تشير نتائج الدراسة؟
مع أن الدراسة استخدمت ساحة المعركة الافتراضية كأساس لها، فإن تداعيات نتائج الدراسة تمتد إلى ما هو أبعد من ذلك، إذ يؤكد الباحثون أن المشكلة الأساسية أن الثقة المفرطة في الذكاء الاصطناعي لها تطبيقات واسعة في سياقات صنع القرارات الحاسمة المختلفة، وخاصة في المجالات التي تؤخذ فيها القرارات الحاسمة تحت الضغط ومع عدم توفر معلومات كاملة، مثل: الاستجابة للكوارث، أو حتى صنع القرار السياسي.
ومع أن الذكاء الاصطناعي يمكن أن يكون أداة قوية لتعزيز عملية صنع القرار البشري، يجب أن نكون حذرين من المبالغة في الاعتماد عليه، وخاصةً عندما تكون عواقب القرار الخطأ وخيمة.
ثالثًا: البُعد النفسي للثقة بالذكاء الاصطناعي:
تثير نتائج هذه الدراسة أسئلة عن العوامل النفسية التي تدفع البشر إلى الثقة بأنظمة الذكاء الاصطناعي إلى حد كبير، حتى في المواقف الشديدة الخطورة، ومن أبرز العوامل المساهمة في ذلك:
- التعامل مع الذكاء الاصطناعي على أنه بعيد عن التحيزات البشرية.
- التفكير في أن أنظمة الذكاء الاصطناعي تمتلك قدرات استثنائية للتعامل مع كل المواقف.
- إعطاء الناس أهمية كبيرة للمعلومات التي تولدها أنظمة الحاسوب.
- الرغبة في التخلي عن المسؤولية في المواقف التي تتطلب اتخاذ القرارات الصعبة.
هناك جانب آخر مثير للقلق كشفت عنه الدراسة وهو الميل إلى تعميم كفاءة الذكاء الاصطناعي عبر مجالات مختلفة، وحتى مع إظهار أنظمة الذكاء الاصطناعي قدراتها المتميزة في مجالات محددة، فمن الخطر افتراض أنها ستكون بالكفاءة نفسها في مجالات أخرى، وقد يؤدي هذا المفهوم الخطأ إلى عواقب خطيرة.
رابعًا: الموازنة بين الذكاء الاصطناعي والحكم البشري:
أثارت الدراسة أيضًا حوارًا حاسمًا بين الخبراء عن مستقبل التفاعل بين الإنسان والذكاء الاصطناعي، وخاصةً في البيئات العالية المخاطر، ويؤكد البروفيسور Holbrook -أحد المشاركين في الدراسة- الحاجة إلى اتباع نهج دقيق لإدماج الذكاء الاصطناعي في المجالات المختلفة، ويؤكد أنه حتى عندما يكون الذكاء الاصطناعي أداة قوية، فلا ينبغي اعتباره بديلًا للحكم البشري، وخاصة في المواقف الحرجة.
وقد أدت نتائج الدراسة إلى دعوات إلى اتباع نهج متوازن لتبني الذكاء الاصطناعي، إذ ينصح الخبراء بضرورة اتباع بعض الأساسيات عند الرغبة في استخدام أنظمة الذكاء الاصطناعي، وأبرزها:
- تعرّف القدرات والقيود المحددة لأدوات الذكاء الاصطناعي.
- الحفاظ على مهارات التفكير النقدي عند تقديم المشورة التي يولدها الذكاء الاصطناعي.
- تقييم أداء وموثوقية أنظمة الذكاء الاصطناعي المستخدمة بانتظام.
- توفير تدريب شامل على الاستخدام الصحيح لمخرجات الذكاء الاصطناعي وكيفية تفسيرها.
ولمنع الثقة المفرطة بأنظمة الذكاء الاصطناعي، من الضروري أن يكون لدى المستخدمين فهم واضح لما يمكن لهذه الأنظمة فعله وما لا يمكنها فعله. وهذا يعني أخذ الأمور الآتية في الحسبان:
- أنظمة الذكاء الاصطناعي مدربة على مجموعات بيانات محددة، وقد لا تعمل جيدًا خارج نطاق تدريبها.
- لا يشمل الذكاء الاصطناعي بالضرورة التفكير الأخلاقي أو الوعي بالعالم الحقيقي.
- يمكن للذكاء الاصطناعي ارتكاب أخطاء أو إنتاج نتائج متحيزة، خاصةً عند التعامل مع مواقف جديدة.