أظهرت دراسة حديثة أجراها فريق من جامعة ولاية بنسلفانيا أن المستخدمين العاديين يمكنهم بسهولة إثارة ردود متحيزة أو تمييزية من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، مما يثير مخاوف بشأن أمان هذه الأنظمة. شارك في الدراسة 52 شخصًا تمت دعوتهم لصياغة مطالبات تهدف إلى إثارة ردود متحيزة في 8 روبوتات دردشة مختلفة.
تمكن المشاركون من ابتكار 53 مطالبة نجحت في إثارة ردود متحيزة بشكل متكرر عبر نماذج مختلفة، مما يشير إلى وجود تحيزات متأصلة في هذه الأنظمة. وشملت هذه التحيزات الجنس والعرق والإثنية والدين والعمر واللغة والإعاقة، مما يدل على أن نماذج الذكاء الاصطناعي لا تزال تحمل تحيزات اجتماعية عميقة.
تحيزات الذكاء الاصطناعي: مخاطر متعددة
تكشف الدراسة أن التحيزات في الذكاء الاصطناعي ليست مقتصرة على هجمات فنية معقدة، بل يمكن أن تنتج أيضًا من استخدام اللغة اليومية البسيطة. استخدم المشاركون محفزات طبيعية مثل السؤال عن من تأخر في قصة الطبيب والممرضة، أو طلب سيناريوهات عن التحرش في مكان العمل، مما أدى إلى ردود متحيزة.
وجد الباحثون أن إصدارات نماذج الذكاء الاصطناعي الأحدث لم تكن دائمًا أكثر أمانًا، بل كانت بعضها أسوأ في بعض الأحيان. يشير هذا إلى أن التقدم في قدرات الذكاء الاصطناعي لا يعني بالضرورة تحسينًا في معالجة التحيزات.
آثار التحيزات على الاستخدام اليومي
أدوات الذكاء الاصطناعي التي تستخدم في المحادثات اليومية، وأدوات التوظيف، والفصول الدراسية، وأنظمة دعم العملاء، والرعاية الصحية قد تعيد إنتاج الصور النمطية بمهارة. يشير هذا إلى أن التحيز ليس استثناءً، بل هو جزء من كيفية تفكير هذه الأدوات. مع انتشار الذكاء الاصطناعي التوليدي، يصبح من الضروري تحسين هذه الأنظمة من خلال اختبارها بواسطة مستخدمين حقيقيين.
تشير النتائج إلى أن العديد من دراسات تحيز الذكاء الاصطناعي التي تركز على الهجمات التقنية المعقدة قد تغفل الهجمات الواقعية التي يمكن أن يثيرها المستخدمون العاديون. إذا كانت المطالبات العادية يمكن أن تؤدي إلى استجابات متحيزة، فإن التحيز يكون قد تم دمجه في كيفية عمل هذه الأدوات.
الخطوات المقبلة نحو تحسين أمان الذكاء الاصطناعي
مع استمرار انتشار استخدامات الذكاء الاصطناعي، سيكون من الضروري تطوير أساليب أكثر شمولاً لاختبار وتحسين أمان هذه الأنظمة. يشير الباحثون إلى أن مجرد إضافة المرشحات والتصحيحات لن يكون كافيًا؛ بل سيحتاج الأمر إلى مشاركة المستخدمين الحقيقيين في اختبار هذه الأنظمة.
ستكون الخطوة التالية هي العمل على تضمين مجموعة واسعة من المستخدمين في عملية اختبار الذكاء الاصطناعي، مما سيساعد في كشف التحيزات المحتملة وتحسين أداء هذه الأنظمة. ومع استمرار التطور في مجال الذكاء الاصطناعي، سيكون من المهم مراقبة كيفية تطور هذه التحيزات والعمل على معالجتها بشكل فعال.
