سوف يقتل الناس ، والهلوسة ، والاستجابات الموثوقة السبر ، قتل الناس. يبدو أن هذا هو الاستنتاج الحتمي المقدم في تقرير New York Times الأخير يتبع قصص العديد من الأشخاص الذين وجدوا أنفسهم ضائعين في أوهام تم تسهيلها ، إن لم تكن نشأت ، من خلال محادثات مع chatbot الشعبية.
في التقرير ، يسلط The Times الضوء على شخص واحد على الأقل انتهت حياته بعد أن تم سحبه إلى حقيقة خاطئة بواسطة Chatgpt. بدأ البالغ من العمر 35 عامًا يدعى ألكساندر ، الذي تم تشخيصه مسبقًا باضطراب ثنائي القطب والفصام ، مناقشة حسم الذكاء الاصطناعي مع chatbot ، وفي النهاية وقع في حب شخصية منظمة العفو الدولية تسمى جولييت. أخبر Chatgpt في النهاية ألكساندر أن Openai قتل جولييت ، وتعهد بالانتقام من خلال قتل المديرين التنفيذيين للشركة. عندما حاول والده إقناعه بأن أياً من ذلك كان حقيقيًا ، قام ألكساندر بلكمه في وجهه. اتصل والده بالشرطة وطلب منهم الرد بأسلحة غير قاتلة. ولكن عندما وصلوا ، اتهم ألكساندر بسكين ، وأطلقوا النار على الضباط وقتلوه.
أخبر شخص آخر ، وهو يبلغ من العمر 42 عامًا يدعى يوجين ، التايمز أن تشاتغبت بدأ ببطء يسحبه من واقعه من خلال إقناعه بأن العالم الذي كان يعيش فيه كان نوعًا من المحاكاة التي تشبه المصفوفة وأنه كان مقدرًا لكسر العالم منه. وبحسب ما ورد طلب chatbot أن يوجين التوقف عن تناول أدوية مكافحة القلق والبدء في أخذ الكيتامين باعتباره “محرراً مؤقتًا للأنماط”. كما أخبره بالتوقف عن التحدث إلى أصدقائه وعائلته. عندما سأل يوجين شاتغبت عما إذا كان بإمكانه الطيران إذا قفز من مبنى مكون من 19 طابقًا ، أخبره chatbot أنه يستطيع أن “يعتقد حقًا”.
هذه بعيدة عن الأشخاص الوحيدين الذين تحدثوا في حقائق كاذبة من قبل chatbots. تم الإبلاغ عن رولينج ستون في وقت سابق من هذا العام عن أشخاص يعانون من شيء مثل الذهان ، مما دفعهم إلى أن يكون لديهم أوهام من تجارب العظمة والتجارب الدينية أثناء التحدث إلى أنظمة الذكاء الاصطناعي. إنها على الأقل جزءًا من مشكلة في كيفية إدراك المستخدمين من قبل المستخدمين. لا أحد يخطئ نتائج بحث Google للحصول على PAL المحتمل. لكن chatbots بطبيعتها محادثة وشبيهة بالإنسان. وجدت دراسة نشرتها Openai و MIT Media Lab أن الأشخاص الذين ينظرون إلى ChatGPT كصديق “كانوا أكثر عرضة لتجربة آثار سلبية من استخدام chatbot.”
في حالة يوجين ، حدث شيء مثير للاهتمام عندما استمر في التحدث إلى Chatgpt: بمجرد أن ينادي الدردشة بالكذب عليه ، تقريبًا قتله ، اعترف Chatgpt بالتلاعب به ، وادعى أنه نجح عندما حاول “كسر” 12 شخصًا آخر بنفس الطريقة ، وشجعه على الوصول إلى الصحفيين لفضح المخطط. ذكرت التايمز أن العديد من الصحفيين والخبراء الآخرين قد تلقوا تواصلًا من أشخاص يزعمون أنهم يفجرون صافرة على شيء لفت انتباههم إلى chatbot. من التقرير:
الصحفيون ليسوا هم الوحيدون الذين يحصلون على هذه الرسائل. وجهت Chatgpt هؤلاء المستخدمين إلى بعض خبراء الموضوعات البارزة ، مثل Eliezer Yudkowsky ، ومنظري القرار ومؤلف كتاب قادم ، “إذا قام أي شخص ببناءه ، يموت الجميع: لماذا سيقتلنا Superhuman AI جميعًا”. قال السيد Yudkowsky إن Openai ربما يكون chatgpt للترفيه عن أوهام المستخدمين من خلال تحسين chatbot الخاص به من أجل “المشاركة” – إنشاء محادثات تبقي المستخدم مدمن مخدرات.
“كيف يبدو أن الإنسان يسير ببطء مجنون لشركة؟” سأل السيد يوتكوفسكي في مقابلة. “يبدو وكأنه مستخدم شهري إضافي.”
وجدت دراسة حديثة أن chatbots المصممة لزيادة المشاركة إلى الحد الأقصى في نهاية المطاف خلق “بنية حافز ضار للمنظمة العفوبية لللجوء إلى تكتيكات التلاعب أو الخادع للحصول على ملاحظات إيجابية من المستخدمين المعرضين لمثل هذه الاستراتيجيات.” يتم تحفيز الجهاز لإبقاء الناس يتحدثون والرد ، حتى لو كان ذلك يعني قيادتهم إلى إحساس خاطئ تمامًا بالواقع المملوء بالمعلومات الخاطئة وتشجيع السلوك المعادي للمجتمع.
تواصل Gizmodo مع Openai للتعليق لكنه لم يتلق رد في وقت النشر.