في 4 فبراير ، قامت Google بتحديث “مبادئ الذكاء الاصطناعى” ، وهي وثيقة توضح بالتفصيل كيف ستستخدم الشركة ولن تستخدم الذكاء الاصطناعي في منتجاتها وخدماتها. تم تقسيم الإصدار القديم إلى قسمين: “أهداف لتطبيقات الذكاء الاصطناعي” و “تطبيقات الذكاء الاصطناعى التي لن نتابعها” ، ووعدت صراحة بعدم تطوير أسلحة أو أدوات مراقبة منظمة العفو الدولية.
لاحظت صحيفة واشنطن بوست أن التحديث لأول مرة ، والفرق الأكثر وضوحًا هو الاختفاء التام لأي قسم “تطبيقات الذكاء الاصطناعى التي لن نتابعها”. في الواقع ، تركز لغة المستند الآن فقط على “ما ستفعله Google” ، دون أي وعود على الإطلاق حول “ما لن تفعله Google”.
لماذا هذا مهم؟ حسنًا ، إذا قلت أنك لن تتابع أسلحة الذكاء الاصطناعي ، فلا يمكنك متابعة أسلحة الذكاء الاصطناعي. انها جميلة قطع وجافة. ومع ذلك ، إذا قلت إنك ستستخدم “تصميمًا صارمًا واختبارًا ومراقبة وضمانًا للتخفيف من نتائج غير مقصودة أو ضارة وتجنب التحيز غير العادل” ، فيمكنك متابعة ما تريد وتجادل فقط بأنك استخدمت ضمانات صارمة.
وبالمثل ، عندما تقول Google إنها ستنفذ “الإشراف البشري المناسب” ، لا توجد طريقة لنا لمعرفة معنى ذلك. Google هو الشخص الذي يقرر بالضبط ماهية الإشراف البشري المناسب. هذه مشكلة لأنها تعني أن الشركة لا تقدم أي وعود أو تعطينا أي معلومات قوية. إنه مجرد فتح الأمور حتى يتمكن من التحرك بحرية أكبر – مع محاولة إعطاء انطباع بالمسؤولية الاجتماعية.
إن مشاركة Google في مشروع Maven التابع لوزارة الدفاع الأمريكية في عامي 2017 و 2018 هو ما أدى إلى وثيقة مبادئ الذكاء الاصطناعي الأصلي. احتج الآلاف من موظفيها على المشروع العسكري ، ورداً على ذلك ، لم تجدد Google الاتفاق ووعد بالتوقف عن متابعة أسلحة الذكاء الاصطناعي.
ومع ذلك ، فإن السرعة السريعة بضع سنوات ومعظم منافسي Google يشاركون في هذه الأنواع من المشاريع ، مع Meta و Openai و Amazon جميعهم يسمحون ببعض الاستخدام العسكري لتكنولوجيا الذكاء الاصطناعي. مع زيادة المرونة في مبادئ الذكاء الاصطناعى المحدثة ، فإن Google مجانية فعليًا للعودة إلى اللعبة وكسب بعض الأموال العسكرية. سيكون من المثير للاهتمام معرفة ما إذا كان لدى موظفي Google أي شيء يقولونه حول هذا في المستقبل القريب.