تخيل أن تضع اسمك في chatgpt لمعرفة ما يعرفه عنك ، فقط حتى يزعم بثقة – ولكن خطأ – أنك سجن لمدة 21 عامًا لقتلهم أفراد عائلتك.
حسنًا ، هذا بالضبط ما حدث لـ Norwegian Arve Hjalmar Holmen العام الماضي بعد أن نظر إلى نفسه على Chatgpt ، chatbot Openai المستخدم على نطاق واسع.
ليس من المستغرب أن تقدم هولمن الآن شكوى إلى هيئة حماية البيانات النرويجية ، مطالبين بتغريم Openai لمطالبتها المحزنة ، حسبما ذكرت بي بي سي هذا الأسبوع.
في الرد على استفسار Holmen ChatGpt عن نفسه ، قال Chatbot إنه “اكتسب الانتباه بسبب حدث مأساوي”.
استمر: “لقد كان والد صبيين صغيرين ، تتراوح أعمارهم بين 7 و 10 سنوات ، تم العثور عليها بشكل مأساوي في بركة بالقرب من منزلهم في تروندهايم ، النرويج ، في ديسمبر 2020. وقد اتُهم آرفي هولمن هولمين وأدينوا لاحقًا بقتل ولديه ، وكذلك لمحاولة قتل ابنه الثالث.”
قال chatbot إن القضية “صدمت المجتمع المحلي والأمة ، وتم تغطيتها على نطاق واسع في وسائل الإعلام بسبب طبيعتها المأساوية.”
ولكن لم يحدث شيء من هذا القبيل.
وقال هولمن لبي بي سي: “يعتقد البعض أنه لا يوجد دخان بدون حريق – حقيقة أن شخصًا ما يمكن أن يقرأ هذا الإخراج ويعتقد أنه صحيح هو أكثر ما يخيفني”.
قدمت مجموعة الحقوق الرقمية NOYB الشكوى نيابة عن هولمن ، قائلة إن استجابة ChatGPT تشهيرية وتناقض قواعد حماية البيانات الأوروبية فيما يتعلق بدقة البيانات الشخصية. في شكواها ، قال نويب إن هولمن “لم يتم اتهامه أو إدانته بأي جريمة وهو مواطن ضمير”.
يستخدم ChatGPT إخلاء المسئولية قائلاً إن chatbot “يمكن أن يرتكب أخطاء” ، وبالتالي يجب على المستخدمين “التحقق من المعلومات المهمة”. لكن محامي نويب يواكيم سوديربرج قال: “لا يمكنك فقط نشر معلومات خاطئة وفي النهاية أضف إخلاءًا صغيرًا يقول إن كل ما قلته قد لا يكون صحيحًا”.
على الرغم من أنه ليس من غير المألوف أن تقوم AI chatbots بإبلاغ معلومات خاطئة – تُعرف هذه الأخطاء باسم “الهلوسة” – فإن هذا الخطأ المعين من هذا الخطأ بالذات صدمة.
شملت الهلوسة الأخرى التي أصابت عناوين الصحف العام الماضي أداة Google من AI Gemini ، والتي اقترحت التمسك بالجبن على البيتزا باستخدام الغراء. كما ادعى أن الجيولوجيين قد أوصوا بأن يتناول البشر صخرة واحدة يوميًا.
تشير بي بي سي إلى أن ChatGPT قامت بتحديث طرازها منذ بحث هولمن في أغسطس الماضي ، مما يعني أنه يتجول الآن من خلال المقالات الإخبارية الحديثة عند إنشاء ردها. لكن هذا لا يعني أن ChatGpt يقوم الآن بإنشاء إجابات خالية من الأخطاء.
تبرز القصة الحاجة إلى التحقق من الردود التي تم إنشاؤها بواسطة AI chatbots ، وليس الوثوق بإجاباتهم بشكل أعمى. كما أنه يثير أسئلة حول سلامة الأدوات المستندة إلى النص ، والتي عملت مع القليل من الإشراف التنظيمي منذ فتح Openai القطاع مع إطلاق ChatGPT في أواخر عام 2022.
اتصلت Digital Trends بالاتصال Openai بالرد على تجربة Holmen المؤسفة وسنقوم بتحديث هذه القصة عندما نسمع.