يبدو أن حالات “ذهان الذكاء الاصطناعى” في ارتفاع ، وقد انتحر العديد من الأشخاص بعد التحدث مع نموذج اللغة الكبير ChatGpt. هذا فظيع جدا. يشهد ممثلو شركة ChatGpt Maker Openai أمام الكونغرس الأمريكي استجابةً ، وتعلن الشركة عن طرق جديدة لاكتشاف عمر المستخدمين. وفقًا للرئيس التنفيذي ، قد يشمل ذلك التحقق من الهوية.
يتم تنفيذ أنظمة الكشف عن العصر الجديد في ChatGPT ، وحيث لا يمكن للنظام الآلي التحقق (على الأقل ، على الأقل) من أن المستخدم هو شخص بالغ ، فإنه سوف يتخلف عن تجربة “أقل من 18 عامًا” التي تمنع المحتوى الجنسي ، و “يحتمل أن ينطوي على تطبيق القانون لضمان السلامة”. في منشور مدونة منفصل تم رصده بواسطة ARS Technica ، قال الرئيس التنفيذي لشركة Openai Sam Altman إنه في بعض البلدان قد يطلب النظام أيضًا معرفًا للتحقق من عمر المستخدم.
وكتب Altman: “نعلم أن هذا حل وسط للخصوصية للبالغين ، لكننا نعتقد أنها مفاضلة جديرة”. تتمثل السياسة الرسمية لـ ChatGPT في أن المستخدمين الذين تقل أعمارهم عن 13 عامًا غير مسموح به ، لكن Openai يدعي أنها تبني تجربة مناسبة للأطفال الذين تتراوح أعمارهم بين 13 و 17 عامًا.
تحدث Altman أيضًا عن زاوية الخصوصية ، وهو مصدر قلق خطير في البلدان والدول التي تتطلب الآن التحقق من الهوية قبل أن يتمكن البالغون من الوصول إلى المواد الإباحية أو غيرها من المحتوى المثير للجدل. وكتب Altman: “نقوم بتطوير ميزات أمان متقدمة لضمان أن تكون بياناتك خاصة ، حتى من موظفي Openai”. ولكن سيتم إجراء استثناءات ، على ما يبدو وفقًا لتقدير أنظمة ChatGpt و Openai. “إساءة استخدام خطير محتملة” ، بما في ذلك التهديدات لحياة شخص ما أو تخطط لإلحاق الأذى بالآخرين ، أو “حادث الأمن السيبراني الضخم المحتمل” ، يمكن النظر إليه ومراجعته من قبل المشرفين البشريين.
عندما تصبح ChatGPT وغيرها من خدمات نموذج اللغة الكبيرة في كل مكان ، أصبح استخدامها أكثر تدقيقًا من كل زاوية تقريبًا. يبدو أن “ذهان الذكاء الاصطناعي” ظاهرة حيث يتواصل المستخدمون مع LLM مثل شخص ما ، وتنغمس الطبيعة المثيرة لتصميم LLM عمومًا في دورة متكررة ، استطراد للوهم والضرر المحتمل. في الشهر الماضي ، رفع والدا في كاليفورنيا البالغة من العمر 16 عامًا والذي انتحر دعوى وفاة غير مشروعة ضد Openai. كان المراهق قد تحدث مع ChatGPT ، وسجلات المحادثات التي تم تأكيدها على أنها حقيقية تشمل تعليمات لربط حبل المشنقة وما يبدو أنه تشجيع ودعم لقرار قتل نفسه.
إنها الأحدث فقط في سلسلة مستمرة من أزمات الصحة العقلية والانتحار ، والتي يبدو أنها إما مستوحاة مباشرة أو تتفاقم من خلال الدردشة مع منتجات “الذكاء الاصطناعي” مثل chatgpt و faracht.ai. شهد كل من الوالدين في القضية أعلاه وممثلي Openai أمام مجلس الشيوخ بالولايات المتحدة في وقت سابق من هذا الأسبوع في تحقيق في أنظمة الدردشة ، وتنظر لجنة التجارة الفيدرالية في Openai و Farace.ai و Meta و Google و Xai (الآن المالك الرسمي لـ X و Twitter سابقًا ، تحت إيلون موسك) للحصول على مخاطر محتملة من AI chatbotts.
نظرًا لاستثمار أكثر من تريليون دولار أمريكي في العديد من صناعات الذكاء الاصطناعي ، وتسعى الدول للتأكد من أن لديها جزءًا من تلك الفطيرة ، فإن الأسئلة تبرز حول مخاطر أنظمة LLM. ولكن مع كل هذه الأموال التي تحلق حولها ، يبدو أن نهج “التحرك بسرعة وكسر الأشياء” كان الموقف الافتراضي حتى الآن. تظهر الضمانات الناشئة ، لكن موازنةها بخصوصية المستخدم لن يكون سهلاً. كتب ألمان: “ندرك أن هذه المبادئ تتعارض وأن الجميع سيوافقون على كيفية حل هذا الصراع”.