في غضون أيام قليلة، أعلنت شركات رائدة في مجال الذكاء الاصطناعي مثل OpenAI وGoogle وAnthropic عن قدرات متخصصة في مجال الذكاء الاصطناعي الطبي. هذا التزامن ليس مجرد صدفة، بل يشير إلى منافسة شرسة في هذا القطاع الواعد. ومع ذلك، من المهم التأكيد على أن هذه الإصدارات، على الرغم من الضجة الإعلامية والتسويقية، لم تحصل بعد على الموافقات اللازمة لتكون أجهزة طبية معتمدة أو للاستخدام المباشر في التشخيص السريري للمرضى.
سباق الشركات في مجال الذكاء الاصطناعي الطبي
في السابع من يناير، قدمت OpenAI تطبيق ChatGPT Health، والذي يسمح للمستخدمين في الولايات المتحدة بربط سجلاتهم الطبية عبر شراكات مع شركات مثل b.well وApple Health وFunction وMyFitnessPal. تبعتها Google في الثالث عشر من يناير بإطلاق MedGemma 1.5، وهو نموذج ذكاء اصطناعي طبي مفتوح المصدر قادر على تفسير فحوصات التصوير المقطعي والتصوير بالرنين المغناطيسي ثلاثية الأبعاد، بالإضافة إلى صور التشريح المرضي. وأكملت Anthropic المشهد في الحادي عشر من يناير مع Claude for Healthcare، الذي يوفر وصلات متوافقة مع معايير HIPAA لقواعد بيانات تغطية CMS وأنظمة ترميز ICD-10 وسجل معرف موفر الخدمة الوطني.
التركيز على سير العمل الإداري وليس التشخيص المباشر
تستهدف هذه الشركات الثلاث نقاط ضعف متشابهة في سير العمل، مثل مراجعات الترخيص المسبق ومعالجة المطالبات والوثائق السريرية، ولكنها تتبع استراتيجيات مختلفة للدخول إلى السوق. الجدير بالذكر أن هذه المنصات ليست موجهة للتشخيص المباشر، بل هي أدوات للمطورين. تعتمد جميع الأنظمة على نماذج لغوية كبيرة متعددة الوسائط تم تدريبها على الأدبيات الطبية ومجموعات البيانات السريرية، مع التركيز على حماية الخصوصية والالتزام بالمتطلبات التنظيمية. وتؤكد الشركات على أن هذه الأدوات تهدف إلى دعم الحكم السريري وليس استبداله.
نماذج النشر والوصول المختلفة
تختلف الشركات في طريقة تقديم خدماتها. تعمل ChatGPT Health من OpenAI كخدمة موجهة للمستهلك، مع قائمة انتظار للمشتركين. بينما تطلق Google MedGemma 1.5 كنموذج مفتوح المصدر من خلال برنامج Health AI Developer Foundations، مما يتيح للمطورين تنزيله أو نشره عبر Google Cloud. أما Anthropic، فتقوم بدمج Claude for Healthcare في سير العمل المؤسسي الحالي من خلال Claude for Enterprise، مستهدفةً الشركات والمؤسسات الكبيرة بدلاً من المستهلكين الأفراد.
القيود التنظيمية والمسؤولية القانونية
لا تزال البيئة التنظيمية المحيطة بأدوات الذكاء الاصطناعي في الرعاية الصحية غير واضحة تمامًا. في الولايات المتحدة، تعتمد مراقبة إدارة الغذاء والدواء (FDA) على الاستخدام المقصود للأداة. وتشير OpenAI وGoogle وAnthropic بوضوح إلى أن أدواتها “ليست مخصصة للتشخيص أو العلاج”، بل هي أدوات مساعدة للمطورين.
تثير هذه النقطة تساؤلات حول المسؤولية القانونية. إذا اعتمد الطبيب على تحليل مقدم من إحدى هذه الأدوات وألحق ضررًا بالمريض، فإن تحديد المسؤولية سيكون أمرًا معقدًا. لا توجد حاليًا سوابق قضائية واضحة في هذا المجال.
الأداء المعياري مقابل التطبيق السريري الفعلي
على الرغم من التحسن الكبير في الأداء المعياري لهذه الأدوات، إلا أن الفجوة بين الأداء في الاختبارات والتطبيق السريري الفعلي لا تزال كبيرة. حققت MedGemma 1.5 من Google دقة بنسبة 92.3% على معيار MedAgentBench، بينما سجل Claude Opus 4.5 من Anthropic 61.3% في اختبارات دقة الحساب الطبي MedCalc. ومع ذلك، فإن هذه المعايير تقيس الأداء على مجموعات بيانات محددة، ولا تعكس بالضرورة النتائج في الممارسة العملية. الأخطاء الطبية يمكن أن تكون لها عواقب وخيمة، مما يجعل ترجمة دقة القياس إلى فائدة سريرية أمرًا أكثر تعقيدًا.
مستقبل الذكاء الاصطناعي الطبي: سير العمل الإداري أولاً
تشير التوجهات الحالية إلى أن التبني المؤسسي لـ تطبيقات الذكاء الاصطناعي يركز على سير العمل الإداري، مثل إعداد الفواتير والتوثيق وصياغة البروتوكولات، بدلاً من دعم القرار السريري المباشر. على سبيل المثال، تستخدم Novo Nordisk Claude لأتمتة المستندات في تطوير الأدوية، بينما تستخدم إدارة التأمين الصحي الوطنية في تايوان MedGemma لتحليل السياسات.
الخلاصة
إن قدرات الذكاء الاصطناعي في مجال الطب تتقدم بسرعة، ولكن قدرة المؤسسات على التعامل مع التعقيدات التنظيمية والمسؤولية وتكامل سير العمل لا تزال متخلفة. التكنولوجيا متاحة، ولكن ما إذا كانت ستؤدي إلى تحول حقيقي في الرعاية الصحية يعتمد على معالجة القضايا التي أثارتها هذه الإعلانات المنسقة. يبقى السؤال: هل سنشهد قريبًا استخدامًا واسع النطاق لهذه الأدوات في التشخيص والعلاج، أم أنها ستقتصر على المهام الإدارية؟
