“الشر” AI موجود ، حيث تم بناء النموذج للفوضى ، والنشاط الإجرامي ، وليس جيدًا. لكن أدوات الذكاء الاصطناعى المشروعة يمكن أن تفسد أيضًا. يمكن للمتسللين إطعام البيانات إلى الذكاء الاصطناعي الذي يسممها – الهدف هو التأثير على مجموعة بيانات الذكاء الاصطناعى وتغيير إخراجها.
ربما يريد المهاجم نتيجة أكثر سرية ، مثل إدخال التحيزات. أو ربما تكون النتائج الخبيثة مطلوبة ، مثل عدم الدقة الخطيرة أو الاقتراحات. الذكاء الاصطناعي هو مجرد أداة – لا يعرف ما إذا كانت تستخدم لفائدة إيجابية أو سلبية. إذا كنت لا تعرف ما الذي تبحث عنه ، فيمكنك أن تصبح ضحية الجرائم الإلكترونية.
لذلك في الأسبوع الماضي ، بينما كنت في مؤتمر RSAC ، الذي يجمع بين آلاف خبراء الأمن السيبراني ، انتهزت الفرصة للغوص في أمن الذكاء الاصطناعي مع رام شانكار سيفا كومار ، رعاة البقر مع فريق Microsoft Red. تعمل الفرق الحمراء كاختبارات اختراق داخلية للشركات ، وتبحث عن قصد عن طرق لكسر أو معالجة نظام للعثور على نقاط الضعف.
خلال دردشةنا ، أعطاني كومار حفنة من النصائح الحادة حول كيفية البقاء في مأمن من الذكاء الاصطناعي للخطر ، سواء كان ذلك عبارة عن برنامج chatbot الذي تتحدث معه أو معلومات معالجة الوكيل أكثر تلقائيًا. لأنه ، كما اتضح ، فإن اكتشاف الذكاء الاصطناعى المسموم أمر صعب للغاية.
1. التمسك بالاعبين الكبار
على الرغم من أن كل أداة منظمة العفو الدولية ستحتوي على نقاط ضعف ، يمكنك الوثوق بشكل أفضل بالنية (وحجم الفرق الجاهزة للتخفيف منها) من أكبر اللاعبين في هذا المجال. ليس فقط هم أكثر رسوخا ، ولكن يجب أن يكون لديهم أهداف واضحة لمنظمة العفو الدولية الخاصة بهم.
لذلك ، على سبيل المثال ، chatgpt من Openai و Microsoft Copilot و Google Gemini؟ أكثر جدارة بالثقة من chatbot التي تم العثور عليها بشكل عشوائي في Subreddit الصغيرة الغامضة. على الأقل ، يمكنك أن تؤمن بسهولة أكبر بمستوى الأساس من الثقة.
2. اعلم أن الذكاء الاصطناعى يمكن أن يصنع الأشياء
لفترة طويلة ، يمكنك أن تسأل Google التي كانت أكبر أو كاليفورنيا أو ألمانيا – وسيخبرك ملخص البحث من الذكاء الاصطناعي بألمانيا. (كلا.) توقفت عن مقارنة الأميال مقابل الكيلومترات مؤخرًا فقط.
هذا هو هلوسة بريئة ، أو مثيل عندما يتم إعطاء معلومات خاطئة على أنها صحيحة في الواقع. (أنت تعرف كيف يعلن جارك البالغ من العمر عامين بثقة أن الكلاب لا يمكن أن تكون أولاد فقط؟ نعم ، هذا هكذا.)
مع الذكاء الاصطناعي المعرض للخطر ، يمكن أن يهدأ بطرق أكثر غرابة أو توجيهك ببساطة بطرق خطيرة عن قصد. على سبيل المثال ، ربما يتم تسمم الذكاء الاصطناعي لتجاهل الأمان حول تقديم المشورة الطبية.
إذن أي نصيحة أو تعليمات قدمتها منظمة العفو الدولية؟ قبولهم دائمًا مع الشك المهذبة.
3. تذكر أن الذكاء الاصطناعى يمر فقط على طول ما يجده
عندما يجيب chatbot AI على أسئلتك ، فإن ما تراه هو ملخص للمعلومات التي يجدها. لكن هذه التفاصيل جيدة فقط مثل المصادر – والآن ، فهي ليست دائمًا عيارًا.
يجب أن تنظر دائمًا على المواد المصدر التي تعتمد عليها AI. في بعض الأحيان ، يمكن أن يأخذ التفاصيل خارج السياق أو يسيء تفسيرها. أو قد لا يكون لديها تنوع كافٍ في مجموعة البيانات الخاصة بها لمعرفة أفضل المواقع التي تميل إليها (وعلى العكس ، والتي تنشر محتوى ذي معنى).
أعرف بعض الأشخاص الذين يشاركون أخبار العصير ، لكنهم لا يفكرون دائمًا في من أخبرهم بالمعلومات. أسألهم دائمًا من أين سمعوا هذه التفاصيل ثم قرروا بنفسي ما إذا كنت أعتقد أن هذا المصدر موثوق به. أراهن أنك تفعل هذا أيضًا. تمديد نفس العادة إلى الذكاء الاصطناعي.
4. فكر بشكل نقدي

لتلخيص النصائح أعلاه: لا يمكنك معرفة كل شيء. (على الأقل ، لا يستطيع معظمنا.) أفضل مهارة تالية هي فهم من يعتمد عليه وكيفية تحديد ذلك. يفوز الذكاء الاصطناعي الخبيث عند إيقاف عقلك.
لذا ، اسأل نفسك دائمًا ، هل هذا الصوت صحيح؟ لا تدع الثقة تبيعك.
النصائح المذكورة أعلاه سوف تبدأ. ولكن يمكنك الحفاظ على هذا الزخم من خلال الإشارة إلى ما تقرأه بانتظام (أي النظر في مصادر متعددة للتحقق من عمل مساعدك لمنظمة العفو الدولية) ومعرفة من طلب مساعدة إضافية. هدفي هو أن أكون قادرًا على الإجابة على سؤال آخر بعد ذلك العمل: لماذا قام شخص ما بإنشاء هذا المقال أو الفيديو المصدر؟
عندما تعرف أقل عن موضوع ما ، تكون ذكيًا بشأن من تثق به.