أفادت صحيفة نيويورك تايمز في تقرير أخير لها بأن أحد المخترقين تمكن مطلع عام 2023 من اختراق أنظمة المراسلة الداخلية لشركة OpenAI وسرقة معلومات حول تقنيات الذكاء الاصطناعي الخاصة بالشركة. وأكدت الصحيفة أن الشركة أخفت الحادثة عن عملائها والجهات المعنية، واكتفت بإبلاغ موظفيها.
واستطاع المخترق الوصول إلى محادثات دارت في منتدى إلكتروني خاص بموظفي OpenAI يناقشون فيه أحدث تقنيات الذكاء الاصطناعي التي تطورها الشركة.
وأشارت الصحيفة إلى أن المخترق لم يتمكن من اختراق الأنظمة التي تحتضن نماذج GPT وتدربها، وهي أنظمة الذكاء الاصطناعي الأساسية التي تشتهر بها OpenAI.
وأفادت الصحيفة نقلًا عن مصدرين داخل الشركة بأن بعض موظفي OpenAI كانوا قد حذروا سابقًا من إمكانية استغلال دول مثل الصين مثل هذه الهجمات من لسرقة تقنيات الذكاء الاصطناعي، مما قد يعرض الأمن القومي الأمريكي للخطر، وفقًا لما ذكرته الصحيفة.
وأثار الحادث تساؤلات بين الموظفين حول جدية الشركة في التعامل مع مسألة الأمن الرقمي، وذكرت تقارير أخرى وجود انقسامات داخل الشركة بشأن المخاطر المحتملة للذكاء الاصطناعي.
وفي تطورٍ مرتبط، كتب ليوبولد آشينبرينر، وهو مدير سابق للبرامج التقنية في OpenAI، مذكرة إلى مجلس إدارة الشركة يتهمهم فيها بعدم بذل جهد كافٍ لمنع سرقة التقنيات السرية من “قوى أجنبية معادية” على حد تعبيره.
وكانت الشركة قد فصلت آشينبرينر لاحقًا بدعوى تسريب معلومات سرية، إلا أنه يزعم أن هذا الفصل كان بدافع سياسي.
وتأتي هذه التسريبات لتزيد المشاكل التي تواجه شركة OpenAI حديثًا، إذ واجه الرئيس التنفيذي للشركة، سام ألتمان، صراعًا مع مجلس إدارة سابق، إذ أقاله المجلس ثم عاد إلى منصبه لاحقًا.
وشهدت الشركة حديثًا استقالة العديد من الباحثين في مجال سلامة الذكاء الاصطناعي بسبب خلافات حول “التوافق الفائق” (Superalignment)، وهو مفهوم يهدف إلى إيجاد طرق لسيطرة البشر على الذكاء الاصطناعي الفائق.