في الأشهر الثلاثة الماضية، عطلت OpenAI خمس عمليات تأثير سرية (IO) حاولت استغلال نماذج الشركة للقيام بأنشطة خادعة عبر الإنترنت. اعتبارًا من مايو 2024، لم تظهر هذه الحملات زيادة كبيرة في تفاعل الجمهور أو الوصول إليه بسبب خدمات OpenAI.
تدعي شركة OpenAI أن التزامها بتصميم نماذج الذكاء الاصطناعي مع أخذ السلامة في الاعتبار غالبًا ما أحبط محاولات الجهات الفاعلة في مجال التهديد لإنشاء المحتوى المطلوب. بالإضافة إلى ذلك، تقول الشركة إن أدوات الذكاء الاصطناعي عززت كفاءة تحقيقات OpenAI.
وقد ساهم الإبلاغ التفصيلي عن التهديدات من خلال منصات التوزيع ومجتمع المصادر المفتوحة بشكل كبير في مكافحة عمليات الإدخال والإخراج. تقوم OpenAI بمشاركة هذه النتائج لتعزيز تبادل المعلومات وأفضل الممارسات بين المجتمع الأوسع لأصحاب المصلحة.
تعطيل عمليات الإدخال والإخراج السرية
في الأشهر الثلاثة الماضية، عطلت OpenAI العديد من عمليات الإدخال والإخراج باستخدام نماذجها لمهام مختلفة، مثل إنشاء تعليقات قصيرة، وإنشاء ملفات تعريف مزيفة على وسائل التواصل الاجتماعي، وإجراء أبحاث مفتوحة المصدر، وتصحيح أخطاء التعليمات البرمجية البسيطة، وترجمة النصوص.
تشمل العمليات المحددة التي تعطلت ما يلي:
- قواعد سيئه: عملية لم يتم الإبلاغ عنها سابقًا من روسيا استهدفت أوكرانيا ومولدوفا ودول البلطيق والولايات المتحدة. استخدمت هذه المجموعة نماذج OpenAI لتصحيح التعليمات البرمجية لتشغيل روبوت Telegram وإنشاء تعليقات سياسية باللغتين الروسية والإنجليزية، ونشرها على Telegram.
- شبيه … شخص مشابه: عملية روسية أخرى تولد التعليقات بلغات متعددة على منصات مثل X و9GAG، وترجمة المقالات وتحريرها، وتوليد العناوين الرئيسية، وتحويل المقالات الإخبارية إلى منشورات على فيسبوك.
- تمويج مزعج: شبكة صينية تستخدم نماذج OpenAI لأبحاث نشاط وسائل التواصل الاجتماعي العامة، وتوليد النصوص بعدة لغات، وتصحيح الأخطاء البرمجية لإدارة قواعد البيانات والمواقع الإلكترونية.
- الاتحاد الدولي للوسائط الافتراضية (IUVM): عملية إيرانية تقوم بإنشاء وترجمة مقالات طويلة وعناوين رئيسية وعلامات مواقع ويب منشورة على موقع ويب مرتبط.
- زيرو زينو: شركة تجارية في إسرائيل، تعمل على إنشاء مقالات وتعليقات منشورة عبر منصات متعددة، بما في ذلك Instagram وFacebook وX والمواقع التابعة لها.
وركز المحتوى الذي نشرته هذه العمليات على قضايا مختلفة، بما في ذلك الغزو الروسي لأوكرانيا، والصراع في غزة، والانتخابات الهندية، والسياسة الأوروبية والأمريكية، وانتقادات الحكومة الصينية.
على الرغم من هذه الجهود، لم تظهر أي من هذه العمليات زيادة كبيرة في تفاعل الجمهور بسبب نماذج OpenAI. وباستخدام مقياس الاختراق من Brookings – الذي يقيم تأثير عمليات الإدخال والإخراج السرية – لم تسجل أي من العمليات الخمس أعلى من 2، مما يشير إلى النشاط على منصات متعددة ولكن لا يوجد اختراق لمجتمعات أصلية.
اتجاهات المهاجم
وكشفت التحقيقات في عمليات التأثير هذه عن عدة اتجاهات:
- توليد المحتوى: استخدمت الجهات الفاعلة في مجال التهديد خدمات OpenAI لإنشاء كميات كبيرة من النصوص مع أخطاء لغوية أقل مما يمكن للمشغلين البشريين تحقيقه بمفردهم.
- الخلط بين القديم والجديد: تم استخدام الذكاء الاصطناعي جنبًا إلى جنب مع التنسيقات التقليدية، مثل النصوص المكتوبة يدويًا أو الميمات المنسوخة.
- المشاركة المزيفة: قامت بعض الشبكات بإنشاء ردود على منشوراتها الخاصة لإضفاء مظهر التفاعل، على الرغم من عدم تمكن أي منها من جذب تفاعل حقيقي.
- ارباح الانتاج: استخدمت الجهات الفاعلة في مجال التهديد الذكاء الاصطناعي لتعزيز الإنتاجية، وتلخيص منشورات وسائل التواصل الاجتماعي وتصحيح الأخطاء البرمجية.
الاتجاهات الدفاعية
استفادت تحقيقات OpenAI من مشاركة الصناعة والأبحاث مفتوحة المصدر. تشمل التدابير الدفاعية ما يلي:
- التصميم الدفاعي: فرضت أنظمة السلامة في OpenAI احتكاكًا على الجهات التهديدية، وغالبًا ما منعتهم من إنشاء المحتوى المطلوب.
- التحقيق المعزز بالذكاء الاصطناعي: أدت الأدوات المدعومة بالذكاء الاصطناعي إلى تحسين كفاءة الكشف والتحليل، مما أدى إلى تقليل أوقات التحقيق من أسابيع أو أشهر إلى أيام.
- مسائل التوزيع: يجب توزيع محتوى الإدخال والإخراج، مثل المحتوى التقليدي، بشكل فعال للوصول إلى الجمهور. وعلى الرغم من الجهود التي بذلوها، لم تتمكن أي من العمليات المعطلة من تحقيق مشاركة كبيرة.
- أهمية مشاركة الصناعة: أدت مشاركة مؤشرات التهديد مع أقرانهم في الصناعة إلى زيادة تأثير اضطرابات OpenAI. استفادت الشركة من سنوات من التحليل مفتوح المصدر من قبل مجتمع الأبحاث الأوسع.
- العنصر البشري: على الرغم من استخدام الذكاء الاصطناعي، كانت الجهات الفاعلة في مجال التهديد عرضة للخطأ البشري، مثل نشر رسائل الرفض من نماذج OpenAI على وسائل التواصل الاجتماعي ومواقعها الإلكترونية.
تقول OpenAI إنها تظل ملتزمة بتطوير ذكاء اصطناعي آمن ومسؤول. يتضمن ذلك تصميم النماذج مع أخذ السلامة في الاعتبار والتدخل بشكل استباقي ضد الاستخدام الضار.
على الرغم من الاعتراف بأن اكتشاف وتعطيل الانتهاكات متعددة المنصات مثل عمليات التأثير السري يمثل تحديًا، إلا أن OpenAI تدعي أنها ملتزمة بتخفيف المخاطر.
(تصوير كريس يانغ)
أنظر أيضا: الاتحاد الأوروبي يطلق مكتبًا لتنفيذ قانون الذكاء الاصطناعي وتعزيز الابتكار
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. ويقام هذا الحدث الشامل في موقع مشترك مع أحداث رائدة أخرى بما في ذلك مؤتمر الأتمتة الذكية، وBlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابي.
استكشف الأحداث والندوات عبر الإنترنت القادمة الأخرى المتعلقة بتكنولوجيا المؤسسات والمدعومة من TechForge هنا.