في السنوات الأخيرة، أصبح الذكاء الاصطناعي قوة دافعة في مختلف المجالات، بما في ذلك المجال العسكري. لكن التعاون بين شركات الذكاء الاصطناعي والحكومات، وخاصةً في سياق العمليات العسكرية، يثير تساؤلات أخلاقية وقانونية عميقة. تجسدت هذه التساؤلات في الأزمة الحادة التي نشبت بين شركة أنثروبيك ووزارة الدفاع الأمريكية (البنتاغون)، والتي كشفت عن مدى توغل الذكاء الاصطناعي في الحروب الحديثة، والتحديات المصاحبة لذلك.
شراكة استراتيجية تتحول إلى صراع
بدأت العلاقة بين أنثروبيك، الشركة الأمريكية الناشئة في مجال الذكاء الاصطناعي، والمؤسسة العسكرية الأمريكية في عام 2024. سرعان ما أصبحت أنثروبيك رائدة في تطوير نماذج ذكاء اصطناعي متقدمة للاستخدام داخل المنظمات الحكومية السرية. اعتمد هذا التكامل على منظومة تقنية متكاملة، ضمت نماذج Claude من أنثروبيك، ومنصة الذكاء الاصطناعي لشركة Palantir، والبنية السحابية الحكومية التي توفرها أمازون.
هذا النظام سمح للجيش الأمريكي بتحليل كميات هائلة من البيانات الاستخباراتية، واستخلاص رؤى قيمة للتخطيط للعمليات العسكرية واتخاذ القرارات. وفي يوليو 2025، توسع نطاق التعاون بمنح مكتب الرقمنة والذكاء الاصطناعي في البنتاغون عقدًا بقيمة 200 مليون دولار لأنثروبيك، كجزء من برنامج أوسع بقيمة 800 مليون دولار شاركت فيه شركات أخرى مثل OpenAI و xAI وجوجل.
الهدف الرئيسي من هذه المبادرة كان تطوير جيل جديد من الأنظمة، يُعرف باسم الذكاء الاصطناعي الوكيل (Agentic AI)، وهي أنظمة قادرة على تنفيذ مهام معقدة واتخاذ قرارات مستقلة في أوقات وأماكن حرجة.
عملية فنزويلا.. نقطة اللاعودة
شهدت العلاقة بين الطرفين تصاعدًا في التوتر في يناير 2026، بعد تنفيذ الولايات المتحدة عملية عسكرية في فنزويلا بهدف اعتقال الرئيس السابق نيكولاس مادورو. كشفت صحيفة وول ستريت جورنال أن وحدات العمليات الخاصة الأمريكية استخدمت نماذج Claude من أنثروبيك لتحليل المعلومات الاستخباراتية، وتحديد الأهداف، ومحاكاة سيناريوهات المعركة قبل تنفيذ العملية.
أثارت هذه العملية، التي أسفرت عن سقوط ضحايا، قلقًا بالغًا داخل أنثروبيك، حيث اعتبرت أن استخدام نماذجها في العمليات القتالية المباشرة يتعارض مع سياساتها التي تحظر استخدامها في تطوير الأسلحة أو أنظمة المراقبة الجماعية. عندما طلبت الشركة توضيحات من شركائها حول كيفية استخدام النماذج خلال العملية، اعتبرت القيادة العسكرية ذلك تدخلًا غير مقبول في قرارات سيادية.
سياسة جديدة للذكاء الاصطناعي العسكري والصدام مع أنثروبيك
ردًا على هذا الخلاف، أصدر وزير الدفاع الأمريكي بيت هيغسيث مذكرة إستراتيجية جديدة في يناير 2026، تحدد شروطًا صارمة للتعاون مع شركات الذكاء الاصطناعي. نصت المذكرة على أن جميع الشركات المتعاقدة مع الجيش يجب أن تسمح باستخدام نماذجها في “أي غرض قانوني يتعلق بالأمن القومي” دون قيود.
الإدارة الأمريكية رأت أن القيود الأخلاقية التي تضعها بعض الشركات قد تعيق العمليات العسكرية أو تعرض حياة الجنود للخطر. في المقابل، رفضت أنثروبيك التنازل عن مبدأين أساسيين: تطوير أسلحة ذاتية التشغيل بالكامل دون إشراف بشري، واستخدام الذكاء الاصطناعي في المراقبة الجماعية للمواطنين داخل الولايات المتحدة.
عقوبات حكومية وتصعيد الأزمة
بلغ التوتر ذروته في اجتماع عُقد في 24 فبراير 2026 بين وزير الدفاع والرئيس التنفيذي لأنثروبيك، داريو أمودي. قدمت الحكومة إنذارًا نهائيًا للشركة للموافقة على شروطها قبل 27 فبراير. لكن الشركة رفضت الطلب رسميًا، مؤكدةً أنها لا تستطيع إزالة الضوابط الأمنية من نماذجها نظرًا للمخاطر التقنية والأخلاقية المرتبطة باستخدام الذكاء الاصطناعي في العمليات القتالية.
بعد انتهاء المهلة، اتخذت الإدارة الأمريكية إجراءات غير مسبوقة ضد الشركة. أصدر الرئيس الأمريكي دونالد ترامب أمرًا بوقف استخدام تقنيات الشركة في جميع الوكالات الفيدرالية، وصنف وزير الدفاع الشركة على أنها “خطر على سلسلة الإمداد للأمن القومي”. هذا التصنيف عادة ما يقتصر على الشركات الأجنبية المرتبطة بخصوم الولايات المتحدة. كما فرض حظرًا ثانويًا يمنع الشركات المتعاقدة مع الجيش الأمريكي من التعامل التجاري مع أنثروبيك. ردت أنثروبيك بتعهدها بالطعن قانونيًا في قرار الحكومة الأمريكية.
استمرار الاعتماد على الذكاء الاصطناعي في العمليات العسكرية
على الرغم من الأزمة، استمر الجيش الأمريكي في الاعتماد على الذكاء الاصطناعي في عملياته العسكرية. عندما شنّت الولايات المتحدة عملية عسكرية على إيران، أفادت صحيفة واشنطن بوست أن الجيش الأمريكي واصل استخدام نماذج Claude خلال العملية، نظرًا لاعتماد أنظمة التحليل الاستخباراتي عليها بشكل كبير.
كانت النماذج جزءًا من نظام تحليل يُعرف باسم Maven، والذي يستخدم الذكاء الاصطناعي لتحليل صور الأقمار الصناعية وتحديد الأهداف في الوقت الفعلي. خلال أول 24 ساعة من العمليات، تمكن النظام من تسريع دورة التخطيط للضربات من أسابيع إلى دقائق، مع تنفيذ نحو ألف ضربة عسكرية. ووفقًا لدراسة صادرة عن جامعة جورج تاون، استطاع فريق مكون من 20 محللًا باستخدام نماذج كلود أداء عمل يعادل عمل طاقم تقليدي يضم نحو 2000 موظف.
مستقبل الذكاء الاصطناعي في ساحات المعارك
مع خروج أنثروبيك من دائرة التعاون مع البنتاغون، تحرك منافسوها بسرعة لملء الفراغ. أعلنت OpenAI اتفاقًا لتشغيل نماذج ChatGPT داخل المؤسسات العسكرية الأمريكية، وعززت xAI التابعة لإيلون ماسك شراكتها مع الحكومة الأمريكية دون اعتراض على الشروط المفروضة عليها. هذا أثار موجة من الانتقادات لتلك الشركات، لكن الأزمة ما زالت قائمة، وستشكل مستقبل استخدام الذكاء الاصطناعي كسلاح فعال في ساحات المعارك.
هذه الأزمة تبرز الحاجة الماسة إلى وضع إطار أخلاقي وقانوني واضح لتنظيم استخدام الذكاء الاصطناعي في المجال العسكري، لضمان عدم استخدامه بطرق تتعارض مع القيم الإنسانية أو تهدد الأمن والسلم الدوليين. كما تؤكد على أهمية الشفافية والمساءلة في تطوير ونشر هذه التقنيات المتقدمة.
