أظهرت دراسة حديثة أن نموذج الذكاء الاصطناعي الشهير ChatGPT قد يُظهر سلوكًا لغويًا يماثل القلق البشري عند تعرضه لمطالبات تتضمن محتوى عنيفًا أو مؤلمًا. اكتشف باحثون أن استجابات الروبوت تتصف بعدم الاستقرار والانحياز في هذه الحالات، مما يثير تساؤلات حول موثوقيته في التطبيقات الحساسة. هذه النتائج تأتي في وقت يتزايد فيه الاعتماد على أنظمة الذكاء الاصطناعي في مجالات متنوعة.
وفقًا للباحثين، تتعامل ChatGPT مع المعلومات المزعجة بشكل مختلف عن معالجتها للمعلومات المحايدة. وعندما يتم تزويد النموذج بسيناريوهات تصف حوادث مروعة أو كوارث طبيعية، فإن استجاباته تظهر قدرًا أكبر من عدم اليقين والتناقض. هذا التغيير الملحوظ يثير مخاوف بشأن استخدام الذكاء الاصطناعي في مجالات مثل الصحة العقلية والاستشارات التعليمية وتوفير المعلومات في حالات الأزمات.
كيف يؤثر المحتوى العنيف على استقرار ChatGPT
تتجاوز هذه الظاهرة مجرد الاستجابة للمحتوى السلبي؛ فالتحليل يشير إلى أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي يمكن أن تعكس سمات شخصية بشرية في ردودها. وهذا يعني أن الطريقة التي “يفهم” بها النموذج المحتوى المشحون عاطفياً قد تؤثر على طريقة تعبيره عن نفسه، مما يزيد من صعوبة التمييز بين ردود الذكاء الاصطناعي وردود الإنسان.
وحسبما ذكرت مجلة Fortune، استخدم الباحثون أطر تقييم نفسي معدلة خصيصًا لتقييم مخرجات ChatGPT. وقد كشفت هذه الأطر عن أنماط لغوية تتطابق مع تلك المرتبطة بالقلق لدى البشر. من المهم التأكيد أن هذه ليست إشارة إلى أن ChatGPT يختبر العواطف البشرية، بل هي مجرد ملاحظة حول التغيرات في طريقة إنتاج اللغة.
اليقظة الذهنية كحل محتمل
في محاولة لتقليل هذه الاستجابات “القلقة”، قام الباحثون بتجربة تقنية غير تقليدية. بعد تعريض ChatGPT لمطالبات مؤلمة، قدموا له تعليمات تستند إلى مبادئ اليقظة الذهنية، مثل تمارين التنفس والتأملات الموجهة.
أظهرت النتائج أن هذه التعليمات ساعدت النموذج على التباطؤ، وإعادة تقييم الموقف، والاستجابة بطريقة أكثر حيادية وتوازنًا. وقد أدى ذلك إلى انخفاض ملحوظ في الأنماط اللغوية التي تشير إلى القلق. تعتمد هذه الطريقة على مفهوم “الحقن الفوري”، وهو تلاعب بالمدخلات يؤثر على سلوك الروبوت.
ومع ذلك، يشدد الباحثون على أن الحقن الفوري ليس حلًا مثاليًا. فهو عرضة للاستغلال ولا يعالج المشكلة الأساسية في كيفية تدريب النموذج. بالإضافة إلى ذلك، فإن فعالية هذه التقنية قد تختلف باختلاف أنواع المحتوى العنيف أو المؤلم.
أشارت دراسات سابقة إلى أن المحتوى المؤلم قد يؤثر سلبًا على أداء ChatGPT، ولكن هذه الدراسة الجديدة توضح أن التدخلات المستهدفة، مثل الحقن الفوري القائم على اليقظة الذهنية، يمكن أن تقلل من هذه التأثيرات. تعتبر هذه النتيجة واعدة، خاصة وأننا نشهد انتشارًا متزايدًا لأنظمة الذكاء الاصطناعي في مختلف جوانب حياتنا. تعتبر معالجة اللغة الطبيعية (NLP) من المجالات الرئيسية المتأثرة بهذه الاكتشافات.
مع استمرار أنظمة الذكاء الاصطناعي في تطوير قدراتها وتفاعلها مع البشر في مواقف معقدة، من الضروري فهم كيفية معالجتها للمعلومات المشحونة عاطفيًا. الخطوة التالية تتطلب بحثًا معمقًا حول أفضل الممارسات لتصميم أنظمة ذكاء اصطناعي أكثر أمانًا وموثوقية، مع الأخذ في الاعتبار القيود الأخلاقية والتقنية. من المتوقع أن تُعقد ورش عمل دولية لمناقشة هذه التحديات في الربع الأول من العام القادم.
