تمكن أحد القراصنة من اختراق نظام المراسلة الداخلي لشركة OpenAI العام الماضي والهروب بتفاصيل حول تصميم الذكاء الاصطناعي للشركة، وفقًا لتقرير من صحيفة نيويورك تايمز يوم الخميس. استهدف الهجوم منتدى عبر الإنترنت حيث ناقش موظفو OpenAI التقنيات والميزات القادمة لبرنامج الدردشة الشهير، ومع ذلك، لم تتأثر الأنظمة التي يتم فيها تخزين رمز GPT الفعلي وبيانات المستخدم.
وبينما كشفت الشركة عن هذه المعلومات لموظفيها وأعضاء مجلس إدارتها في أبريل/نيسان 2023، رفضت الشركة إخطار الجمهور أو مكتب التحقيقات الفيدرالي بالاختراق، مدعية أن القيام بذلك غير ضروري لأنه لم تتم سرقة بيانات المستخدم أو الشريك. ولا تعتبر شركة OpenAI الهجوم تهديدًا للأمن القومي وتعتقد أن المهاجم كان فردًا واحدًا ليس له أي علاقات بقوى أجنبية.
وبحسب صحيفة نيويورك تايمز، أثار الموظف السابق في شركة OpenAI ليوبولد أشينبرينر مخاوف بشأن حالة أجهزة الأمن في الشركة وحذر من أن أنظمتها قد تكون متاحة لأجهزة الاستخبارات التابعة لخصوم مثل الصين. وتم فصل أشينبرينر من قبل الشركة على الفور، على الرغم من أن المتحدثة باسم شركة OpenAI ليز بورجوا قالت لصحيفة نيويورك تايمز إن إنهاء خدمته لا علاقة له بالمذكرة.
هذه ليست المرة الأولى التي تعاني فيها OpenAI من مثل هذه الثغرة الأمنية. منذ ظهورها لأول مرة في نوفمبر 2022، تعرضت ChatGPT لاستهداف متكرر من قبل جهات ضارة، مما أدى غالبًا إلى تسريب البيانات. في فبراير من هذا العام، تم تسريب أسماء المستخدمين وكلمات المرور في اختراق منفصل. في مارس السابق، اضطرت OpenAI إلى إيقاف تشغيل ChatGPT بالكامل لإصلاح خطأ كشف عن معلومات الدفع الخاصة بالمستخدمين، بما في ذلك الاسم الأول والأخير وعنوان البريد الإلكتروني وعنوان الدفع ونوع بطاقة الائتمان والأرقام الأربعة الأخيرة من رقم البطاقة للمستخدمين النشطين الآخرين. في ديسمبر الماضي، اكتشف باحثو الأمن أنه يمكنهم إغراء ChatGPT للكشف عن مقتطفات من بيانات التدريب الخاصة به ببساطة عن طريق توجيه النظام لتكرار كلمة “قصيدة” إلى ما لا نهاية.
“إن ChatGPT ليس آمنًا، نقطة”، هكذا صرح باحث الذكاء الاصطناعي غاري ماركوس لصحيفة The Street في يناير/كانون الثاني. “إذا كتبت شيئًا ما في برنامج دردشة آلي، فمن المحتمل أن يكون من الأفضل افتراض أن شركة برنامج الدردشة الآلي قد تتدرب على هذه البيانات (ما لم تضمن خلاف ذلك)؛ وقد تتسرب هذه البيانات إلى مستخدمين آخرين”. منذ الهجوم، اتخذت OpenAI خطوات لتعزيز أنظمة الأمان الخاصة بها، بما في ذلك تثبيت حواجز أمان إضافية لمنع الوصول غير المصرح به وإساءة استخدام النماذج، بالإضافة إلى إنشاء لجنة للسلامة والأمن لمعالجة القضايا المستقبلية.