أعلن البنتاغون مؤخرًا عن تزويد قواته بـ “أنظمة الذكاء الاصطناعي الحدودية” المبنية على نماذج “جروك” (Grok) المطورة من قبل شركة xAI التابعة لإيلون ماسك. يمثل هذا التوسع جزءًا من منصة “GenAI.mil” الأوسع للذكاء الاصطناعي، والتي تهدف إلى تعزيز الكفاءة التشغيلية وتقديم رؤى استخباراتية في الوقت الفعلي. الخطوة تثير تساؤلات حول دور الذكاء الاصطناعي في العمليات العسكرية وتداعيات الاعتماد على شركات القطاع الخاص في هذا المجال.
تكامل الذكاء الاصطناعي في البنتاغون: نظرة على أنظمة جروك
يأتي إدراج نماذج “جروك” ضمن “GenAI.mil” بعد دمج منصة “Gemini for Government” من جوجل في المنصة. وتهدف هذه المبادرة، التي أطلقها البنتاغون في وقت سابق من هذا الشهر، إلى توفير أدوات متطورة للتحليل الآمن للبيانات الخاضعة للرقابة (CUI) وتحسين عمليات اتخاذ القرار. وفقًا لوزير الحرب الأمريكي بيت هيجسيث، فإن أدوات الذكاء الاصطناعي تتيح “فرصًا لا حدود لها لزيادة الكفاءة”.
الخلفية والتطورات السابقة
لم يكن هذا التوجه نحو دمج الذكاء الاصطناعي في البنتاغون مفاجئًا. ففي أبريل الماضي، أصدر الرئيس السابق دونالد ترامب أمرًا تنفيذيًا يدعو إلى مراجعة اللوائح الداخلية بهدف تبسيط العمليات وزيادة الكفاءة، مع التركيز على دور التكنولوجيا في تحقيق ذلك. تاريخيًا، شهدت الولايات المتحدة اهتمامًا متزايدًا بتطبيقات الذكاء الاصطناعي في المجالات الدفاعية والأمنية، وهو اهتمام يتقاطع مع أجندة الحزبين الجمهوري والديمقراطي.
ومع ذلك، أثار هذا التكامل قلق بعض الأطراف، خاصةً فيما يتعلق بتضارب المصالح المحتمل. فقد أعربت السيناتورة إليزابيث وارين عن تحفظاتها بشأن مشاركة المديرين التنفيذيين لشركات التكنولوجيا، مثل إريك شميدت من جوجل، في جهود البنتاغون لتوسيع نطاق استخدام الذكاء الاصطناعي. إذ أن هذه الشراكات قد تثير تساؤلات حول مدى تأثير الشركات الخاصة على القرارات الاستراتيجية للجيش.
مقارنة مع الاستخدامات الأخرى للذكاء الاصطناعي في الصراعات
يثير الحديث عن أنظمة الذكاء الاصطناعي العسكرية مقارنات مع استخدامات مشابهة في صراعات أخرى، مثل استخدام الجيش الإسرائيلي للذكاء الاصطناعي في غزة. على الرغم من أن التفاصيل المتعلقة بكيفية استخدام أنظمة “جروك” في البنتاغون لا تزال غير واضحة، إلا أن هناك تخوفات من إمكانية استخدامها في عمليات قد تؤدي إلى خسائر في الأرواح. لكن التحليلات الأولية تشير إلى أن “GenAI.mil” تركز حاليًا على التطبيقات الإدارية والتحليلية، مثل معالجة المعلومات وتوفير أدوات مساعدة لاتخاذ القرار، وليس على الاستهداف المباشر في العمليات القتالية.
يتماشى هذا التوجه مع الإدراك المتزايد لأهمية جمع وتحليل البيانات في العصر الحديث. فالذكاء الاصطناعي يمكن أن يساعد في فرز كميات هائلة من المعلومات، وتحديد الأنماط، وتقديم رؤى استخباراتية قيمة. وهي قدرات قد تكون حاسمة في مواجهة التحديات الأمنية المتطورة.
التحديات والاعتبارات الأخلاقية
بغض النظر عن التطبيقات المحددة، فإن استخدام الذكاء الاصطناعي في المجال العسكري يثير سلسلة من التحديات والاعتبارات الأخلاقية. من بين هذه التحديات ضمان دقة وموثوقية الأنظمة، وتجنب التحيزات الخوارزمية، وحماية الخصوصية. كما أن هناك حاجة إلى وضع إطار عمل قانوني وأخلاقي واضح يحكم تطوير ونشر هذه التقنيات. ويعتبر الذكاء الاصطناعي مجالًا سريع التطور، مما يتطلب مراجعة مستمرة للسياسات والإجراءات.
بالإضافة إلى ذلك، فإن الاعتماد على شركات القطاع الخاص في توفير التكنولوجيا العسكرية يثير تساؤلات حول الأمن القومي والسيطرة على البيانات. فمن الضروري التأكد من أن هذه الشركات تلتزم بأعلى معايير الأمان وأنها لا تشكل تهديدًا للمصالح الأمريكية. التحليلات الأمنية تُعد ضرورة لضمان سلامة هذه الأنظمة.
المستقبل ومجالات المراقبة
من المتوقع أن يتم الانتهاء من تفعيل جميع ميزات “GenAI.mil” بما في ذلك أنظمة “جروك” في أوائل عام 2026. في هذه المرحلة، سيكون البنتاغون قادرًا على الاستفادة الكاملة من إمكانات الذكاء الاصطناعي في مختلف جوانب عملياته. تطبيقات الذكاء الاصطناعي في الجيش ستشمل معالجة المعلومات السرية، وتحليل البيانات الاستخباراتية في الوقت الفعلي، وربما تطوير أنظمة أسلحة ذاتية القيادة.
ما يجب مراقبته في المستقبل القريب هو كيفية تعامل البنتاغون مع المخاوف الأخلاقية والأمنية المرتبطة باستخدام الذكاء الاصطناعي. كما أن هناك حاجة إلى فهم أفضل لكيفية تأثير هذه التقنيات على طبيعة الحرب وكيفية قيادة العمليات العسكرية. المضي قدمًا يتطلب تعاونًا وثيقًا بين البنتاغون وشركات التكنولوجيا والمجتمع الأكاديمي لضمان تطوير ونشر الذكاء الاصطناعي بطريقة مسؤولة وقابلة للتطبيق.
