أصدرت شركة OpenAI، العقل المدبر وراء حل ChatGPT الشهير للذكاء الاصطناعي، تقريرًا يفيد بأنها منعت أكثر من 20 عملية وشبكة غير شريفة في جميع أنحاء العالم في عام 2024 حتى الآن. اختلفت العمليات من حيث الهدف والحجم والتركيز، وتم استخدامها لإنشاء برامج ضارة وكتابة حسابات وسائط مزيفة وسير ذاتية مزيفة ومقالات على مواقع الويب.
تؤكد OpenAI أنها قامت بتحليل الأنشطة التي أوقفتها وقدمت رؤى أساسية من تحليلها. ويقول التقرير: “تواصل الجهات الفاعلة في مجال التهديد التطور وتجريب نماذجنا، لكننا لم نر دليلاً على أن هذا يؤدي إلى اختراقات ذات مغزى في قدرتهم على إنشاء برامج ضارة جديدة إلى حد كبير أو بناء جماهير سريعة الانتشار”.
ويكتسب هذا أهمية خاصة نظرا لأنه عام انتخابي في العديد من البلدان، بما في ذلك الولايات المتحدة ورواندا والهند والاتحاد الأوروبي. على سبيل المثال، في أوائل شهر يوليو، حظرت OpenAI عددًا من الحسابات التي أنشأت تعليقات حول الانتخابات في رواندا والتي تم نشرها بواسطة حسابات مختلفة على X (تويتر سابقًا). لذا، من الجيد أن نسمع أن OpenAI تقول إن الجهات التهديدية لم تتمكن من تحقيق تقدم كبير في الحملات.
هناك فوز آخر لـ OpenAI يتمثل في تعطيل جهة تهديد مقرها الصين تُعرف باسم “SweetSpecter” والتي حاولت التصيد الاحتيالي باستخدام عناوين الشركة والعناوين الشخصية لموظفي OpenAI. ويمضي التقرير ليقول إنه في شهر أغسطس، كشفت مايكروسوفت عن مجموعة من النطاقات التي نسبتها إلى عملية نفوذ إيرانية سرية تُعرف باسم “STORM-2035”. “بناءً على تقريرهم، قمنا بالتحقيق في مجموعة من الأنشطة المرتبطة على ChatGPT وتعطيلها والإبلاغ عنها.”
تقول OpenAI أيضًا أن منشورات وسائل التواصل الاجتماعي التي أنشأتها نماذجها لم تحظى بالكثير من الاهتمام لأنها لم تتلق سوى القليل من التعليقات أو الإعجابات أو المشاركات أو لم تتلق أي تعليقات. يضمن OpenAI أنهم سيستمرون في توقع كيفية استخدام الجهات الفاعلة في التهديد للنماذج المتقدمة لتحقيق أهداف ضارة والتخطيط لاتخاذ الإجراءات اللازمة لإيقافها.