وجدت OpenAI نفسها هدفًا لشكوى خصوصية أخرى في الاتحاد الأوروبي من المنظمة غير الربحية المتخصصة في حقوق الخصوصية NOYB.
وتستهدف الدعوى عدم قدرة روبوت الدردشة بالذكاء الاصطناعي ChatGPT على تصحيح المعلومات الخطأ التي يولدها بخصوص الأفراد.
وقالت NOYB إنها رفعت الدعوى نيابةً عن شخصية عامة، وسأل صاحب الشكوى في قضيتها ChatGPT عن عيد ميلاده، وزوده روبوت الدردشة بمعلومات غير صحيحة بدلًا من إخبار روبوت الدردشة للمستخدمين أنه لا يملك البيانات اللازمة.
وأوضحت المجموعة أن OpenAI رفضت طلب صاحب الشكوى بتصحيح البيانات أو مسحها، قائلة إنه من غير الممكن تقنيًا تصحيح البيانات وأنها فشلت أيضًا في الكشف عن أي معلومات بخصوص البيانات المعالجة أو مصادرها أو متلقيها.
وقالت NOYB إنها قدمت شكوى إلى هيئة حماية البيانات النمساوية تطالبها بالتحقيق في معالجة بيانات OpenAI والتدابير المتخذة لضمان دقة البيانات الشخصية التي تعالجها نماذج اللغات الكبيرة للشركة.
وقال محامي حماية البيانات في NOYB في بيان: “من الواضح أن الشركات غير قادرة حاليًا على جعل روبوتات الدردشة بالذكاء الاصطناعي تمتثل لقانون الاتحاد الأوروبي عند معالجة البيانات المتعلقة بالأفراد، وإذا لم يتمكن النظام من تقديم نتائج دقيقة وشفافة، فلا يمكن استخدامه لتوليد بيانات بخصوص الأفراد، ويجب أن تتبع التكنولوجيا المتطلبات القانونية، وليس العكس”.
واعترفت OpenAI في الماضي بميل روبوت الدردشة بالذكاء الاصطناعي إلى الاستجابة بإجابات تبدو معقولة مع أنها غير صحيحة أو لا معنى لها، وهي مشكلة يعد حلها بمنزلة تحدي.
وقد تصل العقوبات المفروضة على حالات الفشل في الامتثال للقانون العام لحماية البيانات إلى ما يصل إلى 4 في المئة من إجمالي المبيعات السنوية العالمية.
كما يمكن لمنظمي حماية البيانات أن يأمروا بإجراء تغييرات على كيفية معالجة المعلومات، ويعني ذلك أن تطبيق اللائحة العامة لحماية البيانات قد يعيد تشكيل كيفية عمل أدوات الذكاء الاصطناعي التوليدي في الاتحاد الأوروبي.
وتواجه OpenAI شكوى مماثلة جدًا في بولندا، إذ فتحت هيئة حماية البيانات المحلية في شهر سبتمبر الماضي تحقيقًا بخصوص ChatGPT بعد شكوى قدمها باحث في الخصوصية والأمن وجد أنه غير قادر على تصحيح معلومات غير صحيحة عنه.
وتتهم هذه الشكوى أيضًا OpenAI بالفشل في الامتثال لمتطلبات الشفافية التي تنص عليها اللائحة العامة لحماية البيانات.
وفي الوقت نفسه، لا تزال هيئة حماية البيانات الإيطالية تجري تحقيقًا مفتوحًا في ChatGPT، وأصدرت في شهر يناير مسودة قرار، قائلة في ذلك الوقت إنها تعتقد أن OpenAI قد انتهكت اللائحة العامة لحماية البيانات بعدة طرق، ويشمل ذلك ميل ChatGPT إلى إنتاج معلومات مضللة عن الأشخاص.