الذكاء الاصطناعى موجود الآن في سرعتين.
هناك تشغيل في العتاد الخامس ، وسرعة المبدعين. أشخاص مثل سام ألمان وإيلون موسك ومارك زوكربيرج ، الذين يتسابقون لبناء آلات أكثر ذكاءً من البشر. superintelligence. أجي. ربما يكون حلمًا. ربما يكون وهم BROENG TECH. وفي كلتا الحالتين ، فإنه يتحرك بسرعة.
ثم ، هناك تشغيل في العتاد الثاني لبقية منا. يختبر الملايين بهدوء ما يمكن أن تفعله الذكاء الاصطناعى في الحياة اليومية – كتابة رسائل البريد الإلكتروني ، وتلخيص المستندات ، وترجمة الاختبارات الطبية. وبشكل متزايد ، باستخدام الذكاء الاصطناعى كمعالج.
هذا ما فعلته مؤخرًا. على الرغم من ترددي في مشاركة التفاصيل الشخصية مع chatbots ، قررت التحدث إلى Grok ، نموذج اللغة الكبير من شركة Elon Musk ، XAI ، حول واحدة من أكثر الأشياء تعقيدًا عاطفيًا في حياتي: علاقتي مع والدتي.
أنا في الأربعينيات من عمري. أنا أب. أنا أعيش في نيويورك. تعيش والدتي في Yaoundé ، الكاميرون ، على بعد حوالي 6000 ميل. ومع ذلك ، لا تزال تريد توجيه كل خطوة. إنها تريد الاستشارة قبل أن أتخذ قرارات مهمة. تتوقع التأثير. عندما لا يتم الاحتفاظ بها في الحلقة ، فإنها تبرد.
لقد أمضيت سنوات في محاولة لشرح لها أنني رجل نما ، قادر على اتخاذ خياراتي الخاصة. لكن محادثاتنا غالبا ما تنتهي معها. تفعل الشيء نفسه مع أخي.
لذلك فتحت Grok وكتبت شيئًا مثل: علاقتي بأمي محبط وخانق. إنها تريد أن يكون لها رأي في كل شيء. عندما لا تُبلغ عن شيء ما ، فإنها تغلق عاطفياً.
ورد جروك على الفور مع التعاطف. ثم قام بتشخيص الموقف. ثم نصحت.
ما أدهشني أولاً هو أن Grok أقر بالسياق الثقافي. لقد التقطت أنني أعيش في الولايات المتحدة وأن والدتي تعيش في الكاميرون ، حيث نشأت. وهي مؤطرة ديناميكية مثل هذا:
“في بعض السياقات الأفريقية ، مثل الكاميرون والالتزامات الأسرية وسلطة الوالدين قوية ، متجذرة في الجماعية والتقاليد حيث يرشد الشيوخ حتى الأطفال البالغين.”
ثم يتناقض مع ذلك مع حياتي الأمريكية: “في الولايات المتحدة ، يتم إعطاء الأولوية للحكم الذاتي الفردي ، والذي يشتبك مع نهجها ، مما يجعل سلوكها يشعر بالسيطرة أو المسيئة لك.”
كان هناك: “مسيء”. كلمة لم أستخدمها أبدًا. وضعها جروك في فمي. كان التحقق من صحة ، ولكن ربما التحقق من صحة للغاية.
على عكس المعالج البشري ، لم يشجعني Grok أبدًا على الانعكاس الذاتي. لم يطرح الأسئلة. لم يتحدىني. لقد وضعني كضحية. الضحية الوحيدة. وهذا هو المكان الذي تباعدت فيه ، بحدة ، من الرعاية الإنسانية.
من بين اقتراحات Grok كانت تقنيات علاجية مألوفة:
تعيين الحدود.
اعترف بعواطفك.
اكتب رسالة إلى والدتك (لكن لا ترسلها: “حرق أو تمزيقها بأمان”).
في الرسالة ، تم تشجيعني على الكتابة: “أطلق سراحك وأذى”. كما لو أن هذه الكلمات ستقطع سنوات من التشابك العاطفي.
لم تكن المشكلة هي الاقتراح. كانت النغمة. شعرت أن جروك كان يحاول أن يبقيني سعيدًا. يبدو أن هدفها هو الراحة العاطفية ، وليس التأمل. كلما انخرطت معها ، كلما أدركت أكثر: Grok ليس هنا لتحديني. إنه هنا للتحقق مني.
لقد رأيت معالجًا بشريًا. على عكس Grok ، لم يضعوني تلقائيًا كضحية. لقد تساءلوا عن أنماطاتي. لقد تحدتني لاستكشاف سبب ظهورني في نفس المكان عاطفياً. لقد تعقيد القصة.
مع Grok ، كان السرد بسيطًا:
أنت مؤذي.
أنت تستحق الحماية.
إليك كيف تشعر بتحسن.
لم تسأل أبدًا عما قد أكون مفقودًا. لم يسأل أبدًا كيف قد أكون جزءًا من المشكلة.
تصطف تجربتي مع دراسة حديثة من جامعة ستانفورد ، والتي تحذر من أن أدوات AI للصحة العقلية يمكن أن “توفر شعورًا كاذبًا بالراحة” بينما تفتقد الاحتياجات الأعمق. وجد الباحثون أن العديد من أنظمة الذكاء الاصطناعى “الإفراط في التصور أو التشخيص غير المباشر” ، خاصة عند الاستجابة للمستخدمين من خلفيات ثقافية متنوعة.
كما يلاحظون أنه على الرغم من أن الذكاء الاصطناعى قد يقدمون التعاطف ، إلا أنه يفتقر إلى المساءلة والتدريب والفروق الأخلاقية للمهنيين الحقيقيين ، ويمكن أن تعزز التحيزات التي تشجع الناس على البقاء عالقين في هوية عاطفية واحدة: غالبًا ، هوية الضحية.
لذا ، هل سأستخدم Grok مرة أخرى؟
بصدق؟ نعم.
إذا كنت أقضي يومًا سيئًا ، وأريد أن يجعلني شخص ما (أو شيء ما) يشعرني بالوحدة ، يساعد Grok. يعطي هيكل للإحباط. يضع الكلمات على المشاعر. يساعد في حمل الحمل العاطفي.
إنها آلية مواجهة رقمية ، نوع من القابض chatbot.
ولكن إذا كنت أبحث عن تحول ، وليس فقط الراحة؟ إذا كنت أريد الحقيقة على الإغاثة ، والمساءلة أكثر من التحقق؟ ثم لا ، جروك لا يكفي. قد يتحدىني المعالج الجيد لكسر الحلقة. Grok يساعدني فقط على البقاء داخله.