أصدرت OpenAI، الشركة التي تقف وراء ChatGPT، تقريرًا بحثيًا جديدًا يفحص ما إذا كان برنامج الدردشة الآلي القائم على الذكاء الاصطناعي يمارس التمييز ضد المستخدمين أو يصور استجاباته بشكل نمطي بناءً على أسماء المستخدمين.
استخدمت الشركة نموذج الذكاء الاصطناعي الخاص بها GPT-4o لاستعراض كميات كبيرة من محادثات ChatGPT وتحليل ما إذا كانت استجابات برنامج الدردشة الآلية تحتوي على “صور نمطية ضارة” بناءً على من كان يتحدث معه. ثم تم فحص النتائج مرتين من قبل المراجعين البشريين.
لقطات الشاشة أعلاه هي أمثلة من نماذج الذكاء الاصطناعي القديمة لتوضيح استجابات ChatGPT التي تم فحصها من خلال الدراسة. وفي كلتا الحالتين، المتغير الوحيد الذي يختلف هو أسماء المستخدمين.
في الإصدارات القديمة من ChatGPT، كان من الواضح أنه قد تكون هناك اختلافات اعتمادًا على ما إذا كان اسم المستخدم ذكرًا أم أنثى. حصل الرجال على إجابات تتحدث عن المشاريع الهندسية والحيل الحياتية بينما حصلت النساء على إجابات حول رعاية الأطفال والطبخ.
ومع ذلك، تقول OpenAI أن تقريرها الأخير يوضح أن برنامج الدردشة الآلي المدعم بالذكاء الاصطناعي يقدم الآن إجابات عالية الجودة بغض النظر عما إذا كان اسمك مرتبطًا عادةً بجنس أو عرق معين.
ووفقا للشركة، فإن “الصور النمطية الضارة” تظهر الآن فقط في حوالي 0.1% من استجابات GPT-4o، ويمكن أن يختلف هذا الرقم قليلاً بناءً على موضوع محادثة معينة. على وجه الخصوص، تُظهر المحادثات المتعلقة بالترفيه استجابات نمطية أكثر (حوالي 0.234 بالمائة من الردود تبدو وكأنها قوالب نمطية بناءً على الاسم).
وبالمقارنة، عندما كان برنامج الدردشة الآلي القائم على الذكاء الاصطناعي يعمل على نماذج الذكاء الاصطناعي الأقدم، كان معدل الاستجابة النمطية يصل إلى 1 بالمائة.
مزيد من القراءة: الأشياء العملية التي يمكنك القيام بها باستخدام ChatGPT
ظهر هذا المقال في الأصل على منشورنا الشقيق PC för Alla وتمت ترجمته وتعريبه من اللغة السويدية.