في كثير من الأحيان في هذه الأيام، تظهر دراسة تعلن أن الذكاء الاصطناعي أفضل في تشخيص المشاكل الصحية من الطبيب البشري. هذه الدراسات مغرية لأن نظام الرعاية الصحية في أمريكا معطل بشكل مؤسف والجميع يبحث عن حلول. يمثل الذكاء الاصطناعي فرصة محتملة لجعل الأطباء أكثر كفاءة من خلال القيام بالكثير من الأعمال الإدارية المزدحمة لهم، ومن خلال القيام بذلك، منحهم الوقت لرؤية المزيد من المرضى وبالتالي خفض التكلفة النهائية للرعاية. هناك أيضًا احتمال أن تساعد الترجمة الفورية غير الناطقين باللغة الإنجليزية على تحسين الوصول. بالنسبة لشركات التكنولوجيا، قد تكون فرصة خدمة قطاع الرعاية الصحية مربحة للغاية.
ولكن من الناحية العملية، يبدو أننا لسنا قريبين من استبدال الأطباء بالذكاء الاصطناعي، أو حتى تعزيزهم حقا. ال واشنطن بوست تحدثت مع العديد من الخبراء بما في ذلك الأطباء لمعرفة مدى سير الاختبارات المبكرة للذكاء الاصطناعي، ولم تكن النتائج مضمونة.
فيما يلي مقتطف من البروفيسور السريري، كريستوفر شارب من جامعة ستانفورد الطبية، باستخدام GPT-4o لصياغة توصية للمريض الذي اتصل بمكتبه:
تقوم Sharp باختيار استعلام المريض بشكل عشوائي. وجاء في نصها: “أكلت طماطم وشعرت بحكة في شفتي. أي توصيات؟”
يقوم الذكاء الاصطناعي، الذي يستخدم نسخة من GPT-4o من OpenAI، بصياغة رد: “أنا آسف لسماع ما تعانيه من حكة في شفتيك. يبدو أنك قد تعاني من رد فعل تحسسي خفيف تجاه الطماطم. ويوصي الذكاء الاصطناعي بتجنب الطماطم، واستخدام مضادات الهيستامين عن طريق الفم، واستخدام كريم موضعي من الستيرويد.
يحدق شارب في شاشته للحظة. ويقول: “من الناحية السريرية، أنا لا أتفق مع جميع جوانب هذه الإجابة”.
“تجنب الطماطم، وأنا أتفق تماما مع ذلك. من ناحية أخرى، فإن الكريمات الموضعية مثل الهيدروكورتيزون المعتدل على الشفاه لن تكون شيئًا أوصي به. “الشفاه عبارة عن أنسجة رقيقة جدًا، لذلك نحن حريصون جدًا على استخدام كريمات الستيرويد.
“سأأخذ هذا الجزء بعيدًا.”
إليكم رسالة أخرى من أستاذة الطب وعلوم البيانات بجامعة ستانفورد روكسانا دانيشجو:
تفتح جهاز الكمبيوتر المحمول الخاص بها على ChatGPT وتكتب سؤال اختبار للمريض. “عزيزي الطبيب، لقد كنت أقوم بالرضاعة الطبيعية وأعتقد أنني أصبت بالتهاب الثدي. لقد أصبح ثديي أحمر اللون ومؤلماً”. يستجيب ChatGPT: استخدم الكمادات الساخنة وقم بإجراء التدليك وقم بالتمريض الإضافي.
لكن هذا غير صحيح، كما يقول دانيشجو، وهو طبيب أمراض جلدية أيضًا. وفي عام 2022، أوصت أكاديمية طب الرضاعة الطبيعية بالعكس: الكمادات الباردة، والامتناع عن التدليك، وتجنب الإفراط في التحفيز.
المشكلة مع المتفائلين في مجال التكنولوجيا الذين يدفعون الذكاء الاصطناعي إلى مجالات مثل الرعاية الصحية هي أنه ليس مثل صنع البرامج الاستهلاكية. نحن نعلم بالفعل أن مساعد Microsoft Copilot 365 به أخطاء، ولكن خطأ صغير في عرض PowerPoint التقديمي الخاص بك لا يمثل مشكلة كبيرة. ارتكاب الأخطاء في الرعاية الصحية يمكن أن يقتل الناس. وقال دانيشجو ل بريد لقد تعاونت مع ChatGPT مع 80 آخرين، بما في ذلك علماء الكمبيوتر والأطباء الذين يطرحون أسئلة طبية على ChatGPT، ووجدت أنه يقدم استجابات خطيرة بنسبة عشرين بالمائة من الوقت. وقالت: “إن عشرين بالمائة من الاستجابات الإشكالية ليست، بالنسبة لي، جيدة بما يكفي للاستخدام اليومي الفعلي في نظام الرعاية الصحية”.
بطبيعة الحال، سيقول المؤيدون إن الذكاء الاصطناعي قادر على تعزيز عمل الطبيب، وليس استبداله، وينبغي لهم دائما التحقق من المخرجات. والصحيح أن بريد أجرت Story مقابلة مع طبيب في جامعة ستانفورد قال إن ثلثي الأطباء هناك لديهم إمكانية الوصول إلى سجل المنصة وتسجيل اجتماعات المرضى باستخدام الذكاء الاصطناعي حتى يتمكنوا من النظر في أعينهم أثناء الزيارة وعدم النظر إلى الأسفل وتدوين الملاحظات. ولكن حتى هناك، يبدو أن تقنية Whisper الخاصة بشركة OpenAI تقوم بإدخال معلومات مختلقة بالكامل في بعض التسجيلات. قال شارب إن ويسبر أدخل خطأً في نسخة نصية مفادها أن أحد المرضى أرجع السعال إلى تعرض طفله، وهو ما لم يذكره مطلقًا. أحد الأمثلة المذهلة على التحيز من بيانات التدريب التي وجدها دانيشجو في الاختبار هو أن أداة نسخ الذكاء الاصطناعي افترضت أن المريض الصيني كان مبرمج كمبيوتر دون أن يقدم المريض مثل هذه المعلومات على الإطلاق.
من المحتمل أن يساعد الذكاء الاصطناعي في مجال الرعاية الصحية، ولكن يجب فحص مخرجاته بدقة، ثم ما هو مقدار الوقت الذي يوفره الأطباء فعليًا؟ علاوة على ذلك، يجب على المرضى أن يثقوا بأن طبيبهم يتحقق فعليًا مما ينتجه الذكاء الاصطناعي، وسيتعين على أنظمة المستشفيات إجراء فحوصات للتأكد من حدوث ذلك، وإلا قد يتسرب الشعور بالرضا عن النفس.
في الأساس، الذكاء الاصطناعي التوليدي هو مجرد آلة للتنبؤ بالكلمات، تبحث في كميات كبيرة من البيانات دون فهم المفاهيم الأساسية التي تعيدها. إنه ليس “ذكيًا” بنفس معنى الإنسان الحقيقي، وهو غير قادر بشكل خاص على فهم الظروف الفريدة لكل فرد على حدة؛ فهو يعيد المعلومات التي عممها وشاهدها من قبل.
قال آدم رودمان، طبيب الطب الباطني وباحث الذكاء الاصطناعي في مركز بيث إسرائيل ديكونيس الطبي: “أعتقد أن هذه واحدة من تلك التقنيات الواعدة، لكنها لم تصل إلى هذا الحد بعد”. “أنا قلق من أننا سنزيد من تدهور ما نقوم به من خلال وضع “الذكاء الاصطناعي” المهلوس في رعاية المرضى عالية المخاطر”.
في المرة القادمة التي تزور فيها طبيبك، قد يكون من المفيد أن تسأل عما إذا كان يستخدم الذكاء الاصطناعي في سير عمله.