طورت جوجل نهجًا جديدًا يسمى Project Naptime يسمح للنموذج اللغوي الكبير بإجراء أبحاث بخصوص نقاط الضعف بهدف تحسين أساليب الاكتشاف الآلي.
وأشارت عملاقة البحث إلى أن الذكاء الاصطناعي قد يؤدي إلى تحسين تعرف التهديدات وتحليلها واكتشاف نقاط الضعف التي تفتقدها الأدوات الحالية.
وقال باحثون من فريق Project Zero إنهم يستكشفون كيف يمكن للنماذج اللغوية الكبيرة أن تحاكي الأساليب المنهجية للباحثين في مجال الأمن البشري، مثل عمليات تدقيق التعليمات البرمجية والهندسة العكسية.
ويتعلق Project Naptime بالتفاعل بين وكيل الذكاء الاصطناعي وقاعدة التعليمات البرمجية المستهدفة، ويزود الوكيل بمجموعة من الأدوات المتخصصة المصممة لتقليد سير عمل الباحث البشري في مجال الأمن.
ويسعى هذا النهج في جوهره إلى الاستفادة من التقدم في فهم التعليمات البرمجية والقدرة على التفكير العام للنماذج اللغوية الكبيرة، مما يسمح لتلك النماذج بمحاكاة السلوك البشري عندما يتعلق الأمر بتحديد الثغرات الأمنية وإظهارها.
ويشمل هذا النهج مكونات عديدة، مثل أداة متصفح التعليمات البرمجية، مما يسمح لوكيل الذكاء الاصطناعي بالتنقل عبر قاعدة التعليمات البرمجية الهدف، وأداة لتشغيل برامج بايثون النصية في بيئة وضع الحماية، وأداة مصحح الأخطاء لمراقبة سلوك البرنامج بمدخلات مختلفة، وأداة مراسل لمراقبة التقدم المحرز في المهمة
وقالت جوجل إن Project Naptime حيادي للنموذج وحيادي للواجهة الخلفية، ناهيك عن كونه أفضل في الإبلاغ عن تجاوز سعة المخزن المؤقت وعيوب تلف الذاكرة المتقدمة، وفقًا لمعايير CYBERSECEVAL 2 التي أصدرتها ميتا في وقت سابق من شهر أبريل، وهي مجموعة تقييمية لتحديد المخاطر الأمنية للنماذج اللغوية الكبيرة.
وفي الاختبارات التي أجرتها جوجل لإعادة إنتاج العيوب واستغلالها، حققت فئتا الثغرات الأمنية درجات جديدة بلغت مقدار 1.00 درجة و 0.76 درجة، ارتفاعًا من 0.05 درجة و 0.24 درجة على التوالي للنموذج اللغوي الكبير GPT-4 Turbo من OpenAI.
وقالت جوجل: “يسمح Project Naptime للنموذج اللغوي الكبير بإجراء أبحاث بخصوص نقاط الضعف التي تحاكي النهج التكراري القائم على الفرضيات لخبراء الأمن البشري. تعزز هذه المعمارية قدرة الوكيل على تحديد نقاط الضعف وتحليلها، وتضمن أيضًا أن تكون النتائج دقيقة وقابلة للتكرار”.