نسخة Microsoft Azure من منشئ الصور OpenAI، DALL-E، تم عرضه على أنه أ أداة ساحة المعركة لوزارة الدفاع الأمريكية (DoD)، حسبما ورد في الأصل بواسطة الإعتراض الأربعاء. يقول التقرير إن عرض مبيعات Microsoft لأدوات Azure OpenAI تم تسليمه في أكتوبر 2023، على أمل الاستفادة على الأرجح من اهتمام الجيش الأمريكي المتزايد باستخدام الذكاء الاصطناعي التوليدي في الحرب.
“استخدام نماذج DALL-E لإنشاء صور لتدريب أنظمة إدارة المعركة،” هذا ما جاء في سطر من عرض مايكروسوفت إلى وزارة الدفاع، وفقًا لما جاء في أحد التقارير. عرض تقديمي حصل عليها موقع The Intercept. تظهر الجملة الخاصة بالتطبيق العسكري المحتمل لـ DALL-E ضمن مجموعة شرائح بعنوان “Generative AI with DoD Data” جنبًا إلى جنب مع العلامة التجارية لشركة Microsoft.
يقدم Azure العديد من أدوات OpenAI، بما في ذلك DALL-E، وذلك بفضل Microsoft شراكة بقيمة 10 مليارات دولار مع غير الربحية. عندما يتعلق الأمر بالاستخدام العسكري، فإن Microsoft Azure يتمتع بميزة عدم التمسك بتقنيات OpenAI المزعجة والشاملة. مهمة: “للتأكد من أن الذكاء العام الاصطناعي يفيد البشرية جمعاء.” تحظر سياسات OpenAI استخدام خدماتها من أجل “إيذاء الآخرين“، أو لبرامج التجسس. ومع ذلك، تقدم مايكروسوفت أدوات OpenAI تحت مظلتها المؤسسية، حيث دخلت الشركة في شراكة مع القوات المسلحة لعقود من الزمن، وفقًا لمتحدث باسم مايكروسوفت.
قال متحدث باسم Microsoft في رسالة بريد إلكتروني ردًا على العرض التقديمي: “هذا مثال على حالات الاستخدام المحتملة التي تم استخلاصها من خلال المحادثات مع العملاء حول فن الممكن باستخدام الذكاء الاصطناعي التوليدي”.
في العام الماضي فقط، حظرت OpenAI (وليس Azure OpenAI) استخدام أدواتها في “الأعمال العسكرية والحربية” و”تطوير الأسلحة”، كما هو موثق في أرشيف الإنترنت. ومع ذلك، قامت OpenAI بهدوء بإزالة سطر من سياساتها العالمية في يناير 2024، وهو ما تم رصده لأول مرة بواسطة الإعتراض. وبعد أيام فقط، قالت آنا ماكانجو، نائبة رئيس الشؤون العالمية في OpenAI، لبلومبرج إن الأمر كذلك بداية العمل مع البنتاغون. لاحظت OpenAI في ذلك الوقت أن العديد من حالات استخدام الأمن القومي تتوافق مع مهمتها.
قال متحدث باسم OpenAI في رسالة بالبريد الإلكتروني: “تحظر سياسات OpenAI استخدام أدواتنا لتطوير الأسلحة أو استخدامها، أو إصابة الآخرين أو تدمير الممتلكات”. “لم نشارك في هذا العرض ولم نجري محادثات مع وكالات الدفاع الأمريكية فيما يتعلق بحالات الاستخدام الافتراضية التي يصفها.”
يبدو أن الحكومات في جميع أنحاء العالم تتبنى الذكاء الاصطناعي باعتباره مستقبل الحرب. علمنا مؤخرًا أن إسرائيل تستخدم نظام الذكاء الاصطناعي المسمى لافندر لإنشاء “قائمة قتل” تضم 37 ألف شخص في غزة، حسبما ورد في الأصل بواسطة +972 مجلة. منذ يوليو من العام الماضي، قام المسؤولون العسكريون الأمريكيون بتجربة نماذج لغوية كبيرة للمهام العسكرية، وفقًا لما ذكره موقع “space” الأمريكي بلومبرج.
مما لا شك فيه أن صناعة التكنولوجيا لاحظت هذه الفرصة المالية الهائلة. يقوم الرئيس التنفيذي السابق لشركة Google، إريك شميدت، ببناء طائرات بدون طيار انتحارية تعمل بالذكاء الاصطناعي تحت شركة اسمها اللقلق الأبيض. لقد نجح شميدت في الربط بين التكنولوجيا والبنتاغون لسنوات، وهو يقود الجهود المبذولة لتوظيف الذكاء الاصطناعي في الخطوط الأمامية.
لقد تم دعم التكنولوجيا منذ فترة طويلة من قبل البنتاغون، والتي يعود تاريخها إلى أول رقائق أشباه الموصلات في الخمسينيات من القرن الماضي، لذلك ليس من المستغرب أن يتم تبني الذكاء الاصطناعي بنفس الطريقة. وفي حين تبدو أهداف OpenAI سامية وسلمية، فإن شراكتها مع Microsoft تسمح لها بالتعتيم عليها، وبيع الذكاء الاصطناعي الرائد عالميًا للجيش الأمريكي.