قدمت مجموعة الدفاع عن حماية البيانات الأوروبية noyb شكوى ضد OpenAI بسبب عدم قدرة الشركة على تصحيح المعلومات غير الدقيقة الناتجة عن ChatGPT. تزعم المجموعة أن فشل OpenAI في ضمان دقة البيانات الشخصية التي تعالجها الخدمة ينتهك اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي.
“إن اختلاق معلومات كاذبة يمثل مشكلة كبيرة في حد ذاته. لكن عندما يتعلق الأمر بمعلومات كاذبة عن الأفراد، يمكن أن تكون هناك عواقب وخيمة.
“من الواضح أن الشركات غير قادرة حاليًا على جعل برامج الدردشة مثل ChatGPT تمتثل لقانون الاتحاد الأوروبي عند معالجة البيانات المتعلقة بالأفراد. إذا لم يتمكن النظام من إنتاج نتائج دقيقة وشفافة، فلا يمكن استخدامه لتوليد بيانات حول الأفراد. يجب أن تتبع التكنولوجيا المتطلبات القانونية، وليس العكس.
يتطلب القانون العام لحماية البيانات أن تكون البيانات الشخصية دقيقة، وللأفراد الحق في تصحيح البيانات إذا كانت غير دقيقة، فضلاً عن الحق في الوصول إلى المعلومات حول البيانات التي تمت معالجتها ومصادرها. ومع ذلك، فقد اعترفت شركة OpenAI علنًا بأنها لا تستطيع تصحيح المعلومات غير الصحيحة التي تم إنشاؤها بواسطة ChatGPT أو الكشف عن مصادر البيانات المستخدمة لتدريب النموذج.
قال OpenAI: “تظل الدقة الواقعية في نماذج اللغات الكبيرة مجالًا للبحث النشط”.
تسلط مجموعة المناصرة الضوء على تقرير لصحيفة نيويورك تايمز وجد أن روبوتات الدردشة مثل ChatGPT “تخترع المعلومات بنسبة 3% على الأقل من الوقت – وبنسبة تصل إلى 27%”. في الشكوى ضد OpenAI، يستشهد noyb بمثال حيث قدم ChatGPT بشكل متكرر تاريخ ميلاد غير صحيح للمشتكي، وهو شخصية عامة، على الرغم من طلبات التصحيح.
صرح نويب قائلاً: “على الرغم من أن تاريخ ميلاد صاحب الشكوى الذي قدمه ChatGPT غير صحيح، فقد رفضت OpenAI طلبه بتصحيح البيانات أو مسحها، بحجة أنه لم يكن من الممكن تصحيح البيانات”.
ادعت شركة OpenAI أنها تستطيع تصفية البيانات أو حظرها بناءً على مطالبات معينة، مثل اسم صاحب الشكوى، ولكن ليس من دون منع ChatGPT من تصفية جميع المعلومات المتعلقة بالفرد. كما فشلت الشركة أيضًا في الاستجابة بشكل مناسب لطلب الوصول الذي قدمه صاحب الشكوى، والذي يتطلب القانون العام لحماية البيانات من الشركات الوفاء به.
“ينطبق الالتزام بالامتثال لطلبات الوصول على جميع الشركات. وقال دي جراف: “من الواضح أنه من الممكن الاحتفاظ بسجلات لبيانات التدريب التي تم استخدامها للحصول على فكرة على الأقل عن مصادر المعلومات”. “يبدو أنه مع كل “ابتكار”، تعتقد مجموعة أخرى من الشركات أن منتجاتها لا يجب أن تمتثل للقانون”.
لقد قامت هيئات مراقبة الخصوصية الأوروبية بالفعل بفحص عدم دقة ChatGPT، حيث فرضت هيئة حماية البيانات الإيطالية قيودًا مؤقتة على معالجة بيانات OpenAI في مارس 2023، وقام المجلس الأوروبي لحماية البيانات بإنشاء فريق عمل بشأن ChatGPT.
في شكواها، تطلب noyb من هيئة حماية البيانات النمساوية التحقيق في معالجة بيانات OpenAI والتدابير اللازمة لضمان دقة البيانات الشخصية التي تتم معالجتها بواسطة نماذجها اللغوية الكبيرة. تطلب مجموعة المناصرة أيضًا أن تأمر السلطة OpenAI بالامتثال لطلب الوصول الخاص بصاحب الشكوى، وجعل معالجته متوافقة مع اللائحة العامة لحماية البيانات، وفرض غرامة لضمان الامتثال في المستقبل.
يمكنك قراءة الشكوى كاملة هنا (بي دي إف)
(تصوير إليونورا فرانشيسكا غروتو)
أنظر أيضا: إيجور جابلوكوف، بريون: بناء مستقبل مسؤول للذكاء الاصطناعي
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. ويقام هذا الحدث الشامل في مكان مشترك مع الأحداث الرائدة الأخرى بما في ذلك BlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابي.
استكشف الأحداث والندوات عبر الإنترنت القادمة الأخرى المتعلقة بتكنولوجيا المؤسسات والمدعومة من TechForge هنا.