تهدف مبادرة جديدة من مراقبة المراقبة وراء مراقبة التراجع إلى أبحاث العلوم الطبية المعيبة أو المزيفة إلى ما يقرب من مليون دولار.
أطلق مركز النزاهة العلمية للتو مشروع الأدلة الطبية ، وهو جهد مدته سنتان لتحديد البحوث الطبية المنشورة مع تأثير سلبي على إرشادات الصحة-والتأكد من أن الناس يسمعون عنه بالفعل.
مزودًا بمنحة بقيمة 900000 دولار من الأعمال الخيرية المفتوحة وفريقًا أساسيًا يضم ما يصل إلى خمسة محققين ، سيستخدم المشروع أدوات الطب الشرعي لتحديد المشكلات في المقالات العلمية ، والإبلاغ عن النتائج التي توصلت إليها عن طريق مراقبة التراجع ، وهو الموقع الأول للمراقبة العلمية.
وقال إيفان أورانسكي ، المدير التنفيذي للمركز والمؤسس المشارك لـ Retraction Watch ، في منشور يعلن عن المنحة: “لقد أنشأنا في الأصل مركز النزاهة العلمية كموطن لساعة التراجع ، لكننا كنا نأمل دائمًا أن نتمكن من بذل المزيد من الجهد في مجال المساءلة البحثية”. “يسمح لنا مشروع الأدلة الطبية بدعم التحليل النقدي ونشر النتائج”.
وفقًا للطبيعة ، فإن هذه الوثائق المعيبة والمزورة مزعجة لأنها تشوه التحليلات التلوية-المراجع التي تجمع بين النتائج من دراسات متعددة لاستخلاص المزيد من الاستنتاجات القوية إحصائياً. إذا جعلت دراستان أو اثنتين من الدراسات بطابقين في التحليل التلوي ، فيمكنهم توجيه المقاييس على السياسة الصحية.
في عام 2009 ، على سبيل المثال ، أوصى المبدأ التوجيهي الأوروبي باستخدام حاصرات بيتا أثناء الجراحة غير القلبية ، استنادًا إلى أبحاث مطلع الألفية التي تم التشكيك فيها لاحقًا. بعد سنوات ، أشارت مراجعة مستقلة إلى أن التوجيه قد يكون قد ساهم في 10،000 حالة وفاة سنويًا في المملكة المتحدة.
بقيادة جيمس هيثرز ، مستشار سلامة العلوم ، خطة الفريق هي بناء أدوات البرمجيات ، وتطويق العملاء المتوقعين من المخبرين المجهولين ، ودفع مراجعي الأقران للتحقق من عملهم. إنهم يهدفون إلى تحديد ما لا يقل عن 10 تحليلات تلوي معيب في السنة.
الفريق يختار لحظاته بحكمة. كما ذكرت Gizmodo سابقًا ، فإن العلم غير المرغوب فيه الذي تم إنشاؤه من الذكاء الاصطناعى يغمر النظام الإيكولوجي الرقمي الأكاديمي ، ويظهر في كل شيء من إجراءات المؤتمر إلى المجلات التي استعرضها النظراء. وجدت دراسة نشرت في مراجعة المعلومات الخاطئة لمدرسة هارفارد كينيدي أن ثلثي الأوراق التي تم أخذ عينات منها تم استردادها من خلال الباحث العلمي من Google تحتوي على علامات على النص الذي تم إنشاؤه بواسطة GPT-حتى في المنافذ العلمية السائدة. حوالي 14.5 ٪ من تلك الدراسات الزائفة ركزت على الصحة.
هذا أمر مثير للقلق بشكل خاص لأن الباحث العلمي من Google لا يميز بين الدراسات التي استعرضها الأقران وبعثات مسبقة أو أوراق الطلاب أو أعمال أخرى أقل تفعيلًا. وبمجرد أن يتم سحب هذا النوع من الصيد إلى التحليل التلوي أو استشهد به الأطباء ، من الصعب فك العواقب. “إذا لم نتمكن من الوثوق بأن البحث الذي نقرأه هو حقيقي ،” قال أحد الباحثين لـ Gizmodo ، “نحن نخاطر اتخاذ القرارات بناءً على معلومات غير صحيحة.”
لقد رأينا بالفعل كيف يمكن أن يفلت الهراء. في عام 2021 ، تراجعت Nature Springer عن أكثر من 40 ورقة من مجلة علوم العرب لعلوم الجيوسينج-دراسات غير متماسكة للغاية التي يقرأونها مثل LIBs المجنونة التي تم إنشاؤها من الذكاء الاصطناعي. في العام الماضي فقط ، كان على Frontiers الناشر أن يسحب ورقة تضم صورًا مستحيلة من الذكاء الاصطناعى من الذكاء الاصطناعي.
لقد أدخلنا عصر الحفريات الرقمية ، حيث بدأت نماذج الذكاء الاصطناعى على البيانات التي تُعد على شبكة الإنترنت في الحفاظ على عبارات الهراء ونشرها كما لو كانت مصطلحات علمية حقيقية. على سبيل المثال ، في وقت سابق من هذا العام ، وجدت مجموعة من الباحثين مجموعة من الكلمات المشوهة من ورقة علم الأحياء عام 1959 مضمنة في مخرجات نماذج اللغة الكبيرة بما في ذلك GPT-4O من Openai.
في هذا المناخ ، يبدو هدف مشروع الأدلة الطبية وكأنه فرز أكثر من التنظيف. يتعامل الفريق مع مجموعة من المعلومات المعيبة ، والاختباء في مرأى ، والكثير منها يمكن أن يكون له عواقب صحية حقيقية للغاية إذا تم أخذها بالقيمة الاسمية.