مع أنظمة الذكاء الاصطناعي الجديدة تأتي نقاط الضعف الجديدة من الذكاء الاصطناعي ، وتم اكتشاف واحدة كبيرة. إنه عيب في طريقة Microsoft للسماح للوكلاء بالتفاعل مع مواقع الويب نيابة عنك.
تسمي Microsoft هذه التقنية NLWEB ، وهي نوع من HTML لوكلاء الذكاء الاصطناعى. كشفت الشركة عن هذا في مؤتمر البناء هذا الربيع ، ومنذ ذلك الحين استندت إلى تلك الرؤية مع وضع copilot التجريبي لمتصفح الحافة. (لم تؤكد Microsoft ما إذا كانت تستخدم NLWEB لهذا.)
ومع ذلك ، اكتشف الباحث Aonan Guan ضعفًا في NLWEB: خطأ في المسار الذي يتيح لأي مستخدم عن بعد قراءة ملفات حساسة مثل تكوينات النظام وبيانات الاعتماد السحابية عبر عنوان URL المشوه.
في منشور متوسط ، أوضح Guan كيف تمكن من تنزيل قائمة كلمات مرور النظام جنبًا إلى جنب مع مفاتيح Google Gemini و Openai. هذا من شأنه أن يتيح للمهاجم تشغيل تطبيقات AI تعتمد على الخادم “مجانًا” ، دون أن يتم فرضها من قبل Openai.
وفقًا لـ Guan ، دفع مركز استجابة الأمان من Microsoft رقعة إلى مستودع GitHub في يونيو ، مما يؤكد أن المشكلة تم إصلاحها. لم تصدر Microsoft تقرير التصحيح الرسمي. المستخدمين ، ومع ذلك ، لا يحتاجون إلى اتخاذ أي إجراءات.
من العدل أن نقول إن تطوير الذكاء الاصطناعى قد استمر بسرعة. ولكن ، كما يشير جوان ، فإن الخط الفاصل بين الدردشة مع الذكاء الاصطناعى وإصدار أوامر تكنولوجيا المعلومات يمكن أن يطمس.
وقال جوان: “إن طبيعة NLWEB هي تفسير اللغة الطبيعية”. “هذا يطمس الخط الفاصل بين أوامر إدخال المستخدم وأوامر النظام. يمكن أن تتضمن متجهات الهجوم المستقبلية جمل صياغة ، عند تحليلها بواسطة وكيل ، تترجم إلى مسارات أو أفعال ملفات ضارة.”
لقد رأينا بالفعل أن تفاعلات chatgpt تتسرب إلى نتائج بحث Google. (يقال إن ChatGPT قد أوقفت الآن العلم الذي يجعل الدردشات التي يمكن اكتشافها.) لأن Guan (و Verge ، التي أبلغت عن القصة) ، يمكن أن تكون تسرب من هذا الحجم في وكيل الذكاء الاصطناعي كارثية لجميع المعنيين.