ينمو القلق بين كبير موظفي أمن المعلومات (CISOs) في مراكز العمليات الأمنية ، وخاصة حول عملاق الذكاء الاصطناعى الصيني.
تم الإعلان عن الذكاء الاصطناعى باعتباره فجرًا جديدًا لكفاءة العمل والابتكار ، ولكن بالنسبة للأشخاص الموجودين على الخطوط الأمامية للدفاع عن الشركات ، فإنه يلقي بعض الظلال الطويلة والظلام.
أربعة من كل خمسة (81 ٪) من CISOs في المملكة المتحدة تعتقد أن chatbot الصينية تتطلب تنظيمًا عاجلاً من الحكومة. إنهم يخشون أنه بدون تدخل سريع ، يمكن أن تصبح الأداة المحفز لأزمة الإنترنت الوطنية الوطنية.
هذا ليس انعكاس المضاربة. إنها استجابة مباشرة للتكنولوجيا التي تتمثل ممارسات معالجة البيانات وإمكاناتها لإساءة الاستخدام في رفع أجراس الإنذار في أعلى مستويات أمن المؤسسات.
تستند النتائج ، بتكليف من الأمن المطلق لتقرير مؤشر مخاطر المرونة في المملكة المتحدة ، إلى استطلاع لـ 250 CISO في منظمات المملكة المتحدة الكبيرة. تشير البيانات إلى أن التهديد النظري لوكالة الذكاء الاصطناعى قد هبط بقوة على مكتب CISO ، وكانت ردود أفعالهم حاسمة.
في ما كان لا يمكن تصوره تقريبًا قبل عامين ، قام أكثر من ثلث (34 ٪) من قادة الأمن بتنفيذ حظر صريح على أدوات الذكاء الاصطناعى بسبب مخاوف الأمن السيبراني. لقد قام عدد مماثل ، 30 في المائة ، بسحب القابس على عمليات نشر الذكاء الاصطناعى المحددة داخل مؤسساتهم.
هذا التراجع ليس علامة على luddism ولكن استجابة براغماتية لمشكلة تصعيد. تواجه الشركات بالفعل تهديدات معقدة ودارية ، كما يتضح من حوادث رفيعة المستوى مثل خرق هارودز الأخير. تكافح CISO لمواكبة ، وإضافة أدوات الذكاء الاصطناعى المتطورة في ترسانة المهاجم يمثل تحديًا يشعر الكثيرون بالتعامل معهم.
فجوة الاستعداد الأمني المتزايد لمنصات الذكاء الاصطناعى مثل Deepseek
يكمن جوهر المشكلة في منصات مثل Deepseek في إمكاناتها لفضح بيانات الشركات الحساسة وتكون سلاحًا من قبل مجرمي الإنترنت.
ثلاثة من كل خمسة (60 ٪) تتنبأ CISOs بزيادة مباشرة في الهجمات الإلكترونية نتيجة لانتشار Deepseek. تشير نسبة متطابقة إلى أن التكنولوجيا تتجول بالفعل في أطر الخصوصية والحوكمة ، مما يجعل وظيفة صعبة بالفعل من المستحيل تقريبًا.
وقد دفع هذا تحول في المنظور. بمجرد النظر إلى رصاصة فضية محتملة للأمن السيبراني ، ينظر الآن إلى منظمة العفو الدولية من قبل عدد متزايد من المهنيين كجزء من المشكلة. يكشف الاستطلاع أن 42 في المائة من CISO تعتبر الآن منظمة العفو الدولية تهديدًا أكبر من المساعدة في جهودهم الدفاعية.
وقال آندي وارد ، SVP International للأمن المطلق: “يسلط بحثنا الضوء على المخاطر الكبيرة التي تشكلها أدوات AI الناشئة مثل Deepseek ، والتي تعيد تشكيل مشهد التهديد الإلكتروني بسرعة.
“نظرًا لأن المخاوف تنمو حول قدرتها على تسريع الهجمات وتسوية البيانات الحساسة ، يجب على المؤسسات أن تعمل الآن لتعزيز مرونة الإنترنت وتكييف أطر الأمن لمواكبة هذه التهديدات التي تحركها AI.
“لهذا السبب يدعو أربعة من كل خمسة من أدوات CISO في المملكة المتحدة إلى تنظيم حكومي. لقد شهدوا مدى سرعة تقدم هذه التكنولوجيا ومدى سهولة تفوقها على دفاعات الأمن السيبراني القائمة.”
ربما الأكثر إثارة للقلق هو قبول عدم الاستعداد. يعترف ما يقرب من نصف (46 ٪) من كبار قادة الأمن أن فرقهم ليست مستعدة لإدارة التهديدات الفريدة التي تشكلها هجمات AI-التي تعتمد على الذكاء الاصطناعي. إنهم يشهدون تطوير أدوات مثل Deepseek التي تفوقت على قدراتهم الدفاعية في الوقت الفعلي ، مما يخلق فجوة خطيرة في الضعف يعتقد الكثيرون أنه لا يمكن إغلاقه إلا من خلال التدخل الحكومي على المستوى الوطني.
“هذه ليست مخاطر افتراضية” ، تابع وارد. “حقيقة أن المنظمات تحظر بالفعل أدوات الذكاء الاصطناعي بشكل مباشر وإعادة التفكير في استراتيجيات الأمن الخاصة بها استجابةً للمخاطر التي تشكلها LLMs مثل Deepseek ، توضح إلحاح الوضع.
“بدون إطار تنظيمي وطني – إطار يضع إرشادات واضحة لكيفية نشر هذه الأدوات وحكمها ومراقبتها – نخاطر بتعطيل واسع النطاق في كل قطاع من قطاع الاقتصاد البريطاني.”
تستثمر الشركات لتجنب الأزمة مع تبني الذكاء الاصطناعي
على الرغم من هذا الموقف الدفاعي ، لا تخطط الشركات للتراجع الكامل عن الذكاء الاصطناعي. الاستجابة هي أكثر من توقف استراتيجي بدلاً من توقف دائم.
تعترف الشركات بالإمكانات الهائلة لوكالة الذكاء الاصطناعى وتستثمر بنشاط لتبنيها بأمان. في الواقع ، فإن 84 في المائة من المنظمات تجعل توظيف أخصائيي الذكاء الاصطناعي أولوية لعام 2025.
يمتد هذا الاستثمار إلى قمة سلم الشركات. 80 في المائة من الشركات التزمت بتدريب الذكاء الاصطناعي على مستوى C-suite. يبدو أن الاستراتيجية هي نهج مزدوج ذات شهرة: upskill القوى العاملة لفهم التكنولوجيا وإدارتها ، وجلب المواهب المتخصصة اللازمة للتنقل في تعقيداتها.
الأمل – وهو أمل ، إن لم يكن صلاة – هو أن بناء أساس داخلي قوي لخبرة الذكاء الاصطناعى يمكن أن يكون بمثابة موازنة للتهديدات الخارجية المتصاعدة.
الرسالة من القيادة الأمنية في المملكة المتحدة واضحة: لا يريدون منع ابتكار الذكاء الاصطناعي ، ولكن لتمكينها من المتابعة بأمان. للقيام بذلك ، فإنهم يتطلبون شراكة أقوى مع الحكومة.
يتضمن المسار إلى الأمام وضع قواعد واضحة للمشاركة ، والإشراف الحكومي ، وخط أنابيب من المهنيين المهرة من الذكاء الاصطناعى ، واستراتيجية وطنية متماسكة لإدارة المخاطر الأمنية المحتملة التي يطرحها Deepseek والجيل القادم من أدوات الذكاء الاصطناعى القوية التي ستتبعها حتماً.
“لقد انتهى وقت النقاش. نحتاج إلى إجراء فوري وسياسة ومراقبة لضمان أن الذكاء الاصطناعى لا يزال يمثل قوة للتقدم ، وليس حافزًا للأزمة” ، يخلص وارد.
انظر أيضا: معهد آلان تورينج: العلوم الإنسانية هي مفتاح مستقبل الذكاء الاصطناعي

هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الكبيرة من قادة الصناعة؟ تحقق من AI و Big Data Expo الذي يقام في أمستردام ، كاليفورنيا ، ولندن. تم تحديد الحدث الشامل مع الأحداث الرائدة الأخرى بما في ذلك مؤتمر الأتمتة الذكي ، و blockx ، وأسبوع التحول الرقمي ، ومعرض Cyber Security & Cloud.
استكشاف أحداث وندوات الويب القادمة الأخرى التي تعمل بها TechForge هنا.