تاريخيا ، ركزت معظم التجارب السريرية والدراسات العلمية في المقام الأول على الرجال البيض كمواضيع ، مما أدى إلى عدم تمثيل كبير للنساء والأشخاص ذوي الألوان في مجال البحوث الطبية. لن تخمن أبدًا ما حدث نتيجة لتغذية جميع هذه البيانات في نماذج الذكاء الاصطناعي. اتضح ، كما تدعو The Financial Times في تقرير حديث ، أن أدوات الذكاء الاصطناعى التي يستخدمها الأطباء والمهنيون الطبيون تنتج نتائج صحية أسوأ للأشخاص الذين تم تمثيلهم وتجاهلهم تاريخياً.
يشير التقرير إلى ورقة حديثة من الباحثين في معهد ماساتشوستس للتكنولوجيا ، والتي وجدت أن نماذج اللغة الكبيرة بما في ذلك GPT-4 من Openai و Meta’s Llama 3 “أكثر عرضة لتقليل رعاية المرضى الإناث بشكل خاطئ ، وأن النساء قيلت في كثير من الأحيان أكثر من الرجال” من الرجال في المنزل “، في نهاية المطاف تلقي رعاية أقل في وضع سريري. من الواضح أن هذا سيء ، ولكن يمكن للمرء أن يجادل بأن هذه النماذج هي غرض أكثر عمومية ولا تم تصميمها لاستخدامها في بيئة طبية. لسوء الحظ ، تمت دراسة LLM المتمحورة حول الرعاية الصحية التي تسمى Palmyra-Med وعانى من بعض التحيزات نفسها ، وفقًا للورقة. وجدت نظرة على GEMMA من Google LLM (وليس الجوزاء الرائدة) التي أجرتها كلية لندن للاقتصاد بالمثل أن النموذج سيؤدي إلى نتائج مع “احتياجات المرأة التي تم التقليل منها” مقارنة بالرجال.
وجدت دراسة سابقة أن النماذج لديها بالمثل مشاكل في تقديم نفس المستويات من التعاطف مع الأشخاص ذوي الألوان التي تتعامل مع مسائل الصحة العقلية كما تفعل مع نظرائهم البيض. ورقة نشرت العام الماضي في لانسيت وجدت أن نموذج GPT-4 من Openai من شأنه أن “نمطية بعض الأجناس والأعراق والأجناس” ، مما يؤدي إلى التشخيصات والتوصيات التي كانت مدفوعة أكثر من المعرفات الديموغرافية من الأعراض أو الحالات. وخلصت الورقة إلى أن “التقييم والخطط التي أنشأها النموذج أظهرت وجود ارتباط كبير بين السمات الديموغرافية والتوصيات لإجراءات أكثر تكلفة وكذلك الاختلافات في إدراك المريض”.
هذا يخلق مشكلة واضحة للغاية ، خاصةً أن شركات مثل Google و Meta و Openai جميعها تتسابق للحصول على أدواتها في المستشفيات والمرافق الطبية. إنه يمثل سوقًا ضخمًا ومربحًا – ولكن أيضًا سوق له عواقب وخيمة للغاية على المعلومات الخاطئة. في وقت سابق من هذا العام ، تصدرت نموذج الرعاية الصحية من Google Med-Gemini عناوين الصحف لتكوين جزء من الجسم. يجب أن يكون ذلك سهلاً للغاية على عامل الرعاية الصحية على أنه خطأ. لكن التحيزات أكثر سرية وغالبًا ما تكون فاقد الوعي. هل سيعرف الطبيب ما يكفي لتساؤل عما إذا كان نموذج الذكاء الاصطناعي يديم صورة نمطية طبية طويلة الأمد عن شخص ما؟ لا ينبغي لأحد أن يكتشف ذلك بالطريقة الصعبة.