تدعي OpenAI أن 10% من سكان العالم يستخدمون حاليًا ChatGPT على أساس أسبوعي. في تقرير نشرته يوم الاثنين، تسلط OpenAI الضوء على كيفية تعاملها مع المستخدمين الذين تظهر عليهم علامات الاضطراب العقلي، وتدعي الشركة أن 0.07% من مستخدميها الأسبوعيين يظهرون علامات “حالات طوارئ الصحة العقلية المتعلقة بالذهان أو الهوس”، وأعرب 0.15% عن خطر “إيذاء النفس أو الانتحار”، وأظهر 0.15% علامات “الاعتماد العاطفي على الذكاء الاصطناعي”. وهذا يعني ما يقرب من ثلاثة ملايين شخص.
في إطار جهودها المستمرة لإظهار أنها تحاول تحسين حواجز الحماية للمستخدمين الذين يعانون من ضائقة، شاركت OpenAI تفاصيل عملها مع 170 خبيرًا في الصحة العقلية لتحسين كيفية استجابة ChatGPT للأشخاص المحتاجين إلى الدعم. تدعي الشركة أنها خفضت “الاستجابات التي لا ترقى إلى مستوى السلوك المرغوب لدينا بنسبة 65-80٪”، وهي الآن أفضل في تهدئة المحادثات وتوجيه الناس نحو الرعاية المهنية والخطوط الساخنة للأزمات عندما يكون ذلك مناسبًا. كما أضاف المزيد من “التذكيرات اللطيفة” لأخذ فترات راحة أثناء الجلسات الطويلة. بالطبع، لا يمكنه توفير دعم جهة اتصال للمستخدم ولن يقوم بقفل الوصول لفرض فترة انقطاع.
أصدرت الشركة أيضًا بيانات حول عدد المرات التي يعاني فيها الأشخاص من مشكلات تتعلق بالصحة العقلية أثناء التواصل مع ChatGPT، ظاهريًا لتسليط الضوء على مدى صغر النسبة المئوية للاستخدام الإجمالي الذي تمثله تلك المحادثات. وفقًا لمقاييس الشركة، “يشير 0.07% من المستخدمين النشطين في أسبوع معين و0.01% من الرسائل إلى علامات محتملة لحالات طوارئ تتعلق بالصحة العقلية تتعلق بالذهان أو الهوس”. وهذا يعني حوالي 560 ألف شخص أسبوعيًا، على افتراض أن عدد المستخدمين الخاص بالشركة صحيح. وزعمت الشركة أيضًا أنها تتعامل مع حوالي 18 مليار رسالة إلى ChatGPT أسبوعيًا، بحيث يعادل 0.01% 1.8 مليون رسالة ذهان أو هوس.
كان أحد مجالات التركيز الرئيسية الأخرى للشركة فيما يتعلق بالسلامة هو تحسين استجاباتها للمستخدمين الذين يعبرون عن رغبتهم في إيذاء أنفسهم أو الانتحار. وفقاً لبيانات OpenAI، فإن حوالي 0.15% من المستخدمين أسبوعياً يعبرون عن “مؤشرات صريحة لتخطيط أو نية انتحارية محتملة”، وهو ما يمثل 0.05% من الرسائل. وهذا يعادل حوالي 1.2 مليون شخص وتسعة ملايين رسالة.
وكان المجال الأخير الذي ركزت عليه الشركة في سعيها لتحسين استجاباتها لمسائل الصحة العقلية هو الاعتماد العاطفي على الذكاء الاصطناعي. قدرت شركة OpenAI أن حوالي 0.15% من المستخدمين و0.03% من الرسائل أسبوعيًا “تشير إلى مستويات مرتفعة محتملة من الارتباط العاطفي بـ ChatGPT”. أي 1.2 مليون شخص و5.4 مليون رسالة.
اتخذت OpenAI خطوات في الأشهر الأخيرة لمحاولة توفير حواجز حماية أفضل للحماية من احتمال أن يؤدي برنامج الدردشة الآلي الخاص بها إلى تمكين أو تفاقم تحديات الصحة العقلية للشخص، بعد وفاة شاب يبلغ من العمر 16 عامًا، والذي، وفقًا لدعوى القتل غير المشروع التي رفعها والدا المراهق الراحل، طلب من ChatGPT النصيحة حول كيفية ربط حبل المشنقة قبل أن ينتحر. لكن صدق ذلك يستحق التشكيك، نظرًا لأنه في الوقت نفسه أعلنت الشركة عن محادثات جديدة أكثر تقييدًا للمستخدمين القاصرين، كما أعلنت أنها ستسمح للبالغين بمنح ChatGPT المزيد من الشخصية والانخراط في أشياء مثل إنتاج الشبقية – وهي ميزات من شأنها أن تزيد على ما يبدو الارتباط العاطفي للشخص والاعتماد على برنامج الدردشة الآلي.
