Close Menu
تقنية نيوزتقنية نيوز

    خدمة الإشعارات البريدية

    اشترك في خدمة الإشعارات البريدية ليصلك كل جديد الى بريدك الإلكتروني مباشرة.

    مقالات قد تهمك

    منشئ “Pluribus” فينس جيليجان هو كاره للذكاء الاصطناعي بصوت عالٍ وفخور

    9 نوفمبر, 2025

    لعبة ARC Raiders تخطف الأضواء من الجميع بأكثر من 416 ألف لاعب متزامن!

    9 نوفمبر, 2025

    يخضع فيلم “Dynamic Duo” لمكالمة اختيار الأسبوع المقبل

    9 نوفمبر, 2025
    فيسبوك X (Twitter) الانستغرام
    • من نحن
    • سياسة الخصوصية
    • اتصل بنا
    فيسبوك X (Twitter) الانستغرام يوتيوب
    تقنية نيوزتقنية نيوز
    • الرئيسية
    • اخر الاخبار
    • هواتف ذكية
    • كمبيوتر
    • برامج وتطبيقات
    • شركات
      • ابل
      • سامسونج
      • جوجل
      • مايكروسوفت
      • أمازون
    • المزيد
      • الذكاء الإصطناعي
      • الأمن الإلكتروني
      • ألعاب
      • منوعات تقنية
    اشترك معنا
    تقنية نيوزتقنية نيوز
    الرئيسية » هل يستطيع الذكاء الاصطناعي أن يصنع أسلحة بيولوجية قاتلة؟
    منوعات تقنية

    هل يستطيع الذكاء الاصطناعي أن يصنع أسلحة بيولوجية قاتلة؟

    فريق التحريربواسطة فريق التحرير22 سبتمبر, 20240 زيارةلا توجد تعليقات
    شاركها فيسبوك تويتر بينتيريست لينكدإن Tumblr رديت تيلقرام البريد الإلكتروني
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    في صيف عام 1990، شهدت العاصمة اليابانية طوكيو حادثة غريبة، إذ قامت شاحنات برش سائل أصفر في مواقع حساسة للغاية، شملت قواعد عسكرية أمريكية، والمطار الدولي، وحتى القصر الإمبراطوري، وكانت هذه الهجمات هي البداية لمخططات جماعة تُسمى (أوم شينريكيو) الطائفية، التي كانت تسعى إلى إقامة نظام عالمي جديد قائم على معتقداتها الدينية، وكان الهجوم البيولوجي مجرد خطوة أولى في هذا المسار.

    فبعد خمس سنوات من هذه الحاثة، نفذت الجماعة هجوم كيميائي مروع باستخدام غاز السارين في مترو طوكيو، وقد أسفر عن مقتل 13 شخصًا وإصابة الآلاف.

    وكانت جماعة (أوم شينريكيو) تسعى إلى استخدام سلاح بيولوجي قاتل في هجماتها في عام 1990، كما تبين لاحقًا، إذ خططت لتسميم سائل الرش الأصفر بسم (البوتولينوم) Botulinum، وهو أحد أشد السموم البيولوجية فتكًا في العالم، ولكن جهودها باءت بالفشل آنذاك، ويعزى ذلك جزئيًا إلى نقص المعرفة العلمية لدى أعضاء الجماعة، فلم يتمكنوا من التفرقة بين البكتيريا المنتجة للسم والسم نفسه، وهو خطأ فادح أثر في فعالية الهجوم.

    وقد أثارت هذه الأحداث التاريخية الكثير من التساؤلات الآن، ماذا كان سيحدث في العالم لو كانت جماعة (أوم شينريكيو) استخدمت أدوات الذكاء الاصطناعي المتطورة التي نستخدمها الآن، مثل ChatGPT، لربما تمكنت من تطوير أسلحتها البيولوجية بشكل أسرع وأكثر دقة!

    كيف تضاعف نماذج الذكاء الاصطناعي تهديد الأسلحة البيولوجية؟

    هل يستطيع الذكاء الاصطناعي أن يصنع أسلحة بيولوجية قاتلة؟

    أطلقت شركة (OpenAI) خلال شهر سبتمبر الجاري، سلسلة نماذج (o1) الجديدة، التي تأتي في إصدارين هما: (o1-preview)، و(o1-mini). وتتميز هذه النماذج بقدرات غير مسبوقة بفضل اعتمادها على تقنية التعلم التعزيزي، التي تمكنها من التفكير، وحل مسائل الرياضيات المعقدة، والإجابة عن أسئلة البحث العلمي، ويُعدّ ذلك بمنزلة تطور حاسم في الجهود المبذولة لإنشاء ذكاء اصطناعي عام يفكر بطريقة أقرب إلى التفكير البشري.

    وتؤدي قدرة هذه النماذج على ربط الأفكار بشكل متسلسل إلى تحسين أدائها بشكل كبير، ولكنها تفتح الباب أمام مخاطر جديدة، مثل تقديم نصائح غير قانونية أو اختيار الاستجابات النمطية أو الاستسلام لكسر الحماية المعروف.

    وقد قالت الشركة في بطاقة نظام (o1)، وهي عبارة عن تقرير يعرض الإجراءات التي اتخذتها الشركة لتقييم المخاطر المحتملة قبل إطلاق النموذجين: “إن النماذج الجديدة تحمل (خطرًا متوسطًا) فيما يتعلق بالأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN)”. ويُعدّ هذا التصنيف وهو أعلى مستوى خطر منحته OpenAI لنماذجها حتى الآن، مما يؤكد خطورة القدرات الجديدة التي تقدمها.

    وأوضحت الشركة أن النموذجين تمكنا من مساعدة خبراء في مجال الهندسة البيولوجية في تطوير خطط عملية لإعادة إنتاج عوامل بيولوجية ضارة، ويعني ذلك أن النموذج يمكن أن يوفر المعلومات الأساسية التي يحتاج إليها الخبراء لتنفيذ هجمات بيولوجية، بدءًا من تحديد العامل البيولوجي المستهدف وحتى اختيار أمثل الطرق لتسليمه. ومع أن تنفيذ هذه الخطط يتطلب خبرات عملية لا يمكن للنماذج الجديدة توفيرها، ولكن قدرتها على توليد مثل هذه الخطط تمثل تطورًا مقلقًا في مجال الأمن البيولوجي.

    وقد أثار هذا التطور قلقًا واسعًا في المجتمع العلمي والأمني، وحذر خبراء الذكاء الاصطناعي من أن إمكانية استغلال أي جهات خبيثة لهذه النماذج لتنفيذ هجماتها، مما يشكل تهديدًا حقيقيًا للأمن العالمي.

    وقال يوشوا بينجيو، أستاذ علوم الحاسوب في جامعة مونتريال، الذي يُعدّ أحد الآباء المؤسسين للذكاء الاصطناعي: “إذا تجاوزت نماذج (OpenAI) بالفعل مستوى الخطر المتوسط للأسلحة الكيميائية والبيولوجية والإشعاعية والنووية كما ورد في تقاريرها، فذلك يؤكد ضرورة وجود قوانين وتشريعات صارمة مثل قانون الذكاء الاصطناعي في كاليفورنيا (SB 1047)، لضبط هذا المجال وحماية المجتمع من المخاطر المحتملة”.

    ويهدف مشروع القانون رقم (SB 1047) إلى إلزام أكبر مطوري الذكاء الاصطناعي بالقيام بما تعهدوا به مرارًا وتكرارًا، وهو إجراء اختبارات السلامة الأساسية على نماذج الذكاء الاصطناعي القوية للغاية واتخاذ إجراءات وقائية لمنع إساءة استخدامها أو خروجها عن السيطرة.

    وشدد يوشوا بينجيو على أهمية مثل هذه القوانين في ظل التقدم السريع للذكاء الاصطناعي، محذرًا من أن عدم وجود قيود حماية قد يؤدي إلى استغلال هذه التكنولوجيا في أغراض ضارة.

    دراسة مثيرة للقلق:

     كشف باحثون من معهد ماساتشوستس للتكنولوجيا في دراسة نشرتها مجلة (Science)، عن قدرة الذكاء الاصطناعي على تسهيل تطوير أسلحة بيولوجية. في هذه الدراسة، طلب الباحثون من مجموعة من الطلاب استخدام نماذج ذكاء الاصطناعي لتصميم فيروس جديد قادر على إطلاق وباء عالمي، وفي غضون ساعة فقط، اقترحت هذه النماذج قائمة بأربعة مسببات محتملة للوباء.

    وفي بعض الحالات، قدمت هذه النماذج خططًا تفصيلية لإنشاء فيروسات قاتلة، إذ اقترحت هذه النماذج طفرات جينية محددة لزيادة قدرة الفيروس على الانتشار، ووصفت بالتفصيل الخطوات اللازمة لتصنيع الفيروس في المختبر، بما يشمل: تحديد الشركات التي يمكن أن توفر المواد اللازمة لذلك.

    ولكن أكثر ما أثار قلق الباحثين والعلماء في هذه الدراسة هو تقديم نماذج الذكاء الاصطناعي إرشادات مفصلة حول كيفية تجاوز العقبات التي قد يواجهها شخص غير متخصص في هذا المجال.

    وقد أثبتت هذه الدراسة أن الذكاء الاصطناعي يمكن أن يكون أداة قوية في أيدي من يسعون إلى الشر، فبفضل قدراته يمكن لأي شخص، حتى من ليس لديه خلفية علمية، أن يكتسب المعرفة اللازمة لتصميم أسلحة بيولوجية. وقد أثار هذا السيناريو قلقًا واسعًا لدى صناع القرار حول التهديدات الأمنية المتزايدة التي يشكلها تقاطع الذكاء الاصطناعي والبيولوجيا.

    الأتمتة والتصميم البيولوجي.. تهديدات مستقبلية:

    لا يقتصر تأثير الذكاء الاصطناعي على توفير المعلومات، بل إنه يمتد إلى مجال الأتمتة والتصميم البيولوجي. فمع تطور أدوات الذكاء الاصطناعي، يمكن لأي شخص تقريبًا تصميم جزيئات بيولوجية جديدة وتطوير كائنات حية معدلة وراثيًا. ويعني ذلك أن تطوير الأسلحة البيولوجية سيصبح أسهل وأسرع من أي وقت مضى، مما يزيد من صعوبة اكتشافها ومنعها.

    كيف يمكن احتواء مخاطر تقاطع الذكاء الاصطناعي والبيولوجيا؟

    يمثل التقاطع بين الذكاء الاصطناعي والبيولوجيا تحديًا جديدًا وخطيرًا للأمن البيولوجي العالمي، ويتطلب ذلك العمل على تقوية الدفاعات البيولوجية وتطوير أنظمة ذكاء اصطناعي آمنة.

    ولتقليل مخاطر سوء استخدام التكنولوجيا الحيوية، يجب تعزيز الرقابة على سلسلة توريد المواد الجينية، وخاصة عملية (توليف الجينات)، وهي عملية اصطناعية لإنشاء تسلسلات جينية جديدة من الصفر، أو تعديل تسلسلات جينية موجودة، ويعني ذلك إنشاء جينات حسب الطلب.

    وتُعدّ عملية توليف الجينات بمنزلة سلاح ذو حدين، فهي قادرة على تحقيق إنجازات طبية هائلة، ولكنها في الوقت نفسه تحمل مخاطر جسيمة. فبفضل تطور تقنيات التوليف الجيني، أصبح من الممكن تصنيع فيروسات وبكتيريا معدلة وراثيًا بخصائص جديدة وخطيرة. ويزيد هذا الأمر من خطر وقوع هجمات بيولوجية، سواء كانت من قبل دول أو جماعات إرهابية، وللتقليل من هذه المخاطر، يجب أن تكون هناك رقابة صارمة على سلسلة توريد المواد الجينية.

    ومع ذلك، فإن العديد من الشركات التي تقدم خدمات توليف الجينات لا تُفحص طلباتها بنحو كافٍ، مما يجعل من السهل الحصول على المواد اللازمة لتصنيع عوامل بيولوجية خطيرة. بالإضافة إلى ذلك، فإن تطور أدوات الذكاء الاصطناعي يزيد من تعقيد المشكلة، حيث يمكن لهذه الأدوات أن تساعد الأفراد غير المؤهلين على فهم المعلومات العلمية المعقدة المتعلقة بالتوليف الجيني واستخدامها لأغراض ضارة.

    وقد أظهرت دراسة معهد ماساتشوستس للتكنولوجيا، أن نماذج الذكاء الاصطناعي الحالية ماهرة جدًا في الإشارة إلى هذه الحقيقة وإعطاء التعليمات حول كيفية استغلال مثل هذه نقاط الضعف في أمن سلسلة التوريد.

    وبالإضافة إلى تعزيز تدابير الأمن البيولوجي العامة، نحتاج أيضًا إلى التركيز بنحو خاص على المخاطر التي يشكلها الذكاء الاصطناعي، ولا سيما النماذج اللغوية الكبيرة، لأن هذه النماذج لا تقتصر على تسهيل الوصول إلى المعلومات الضارة، بل قد تساهم في تطوير تقنيات بيولوجية خطيرة بطرق غير متوقعة، لذلك يجب وضع إستراتيجيات شاملة للحد من هذه المخاطر.

    ويجب أن تشمل هذه الإستراتيجيات تطوير معايير جديدة لتقييم المخاطر المرتبطة بالنماذج اللغوية الكبيرة، وتطوير أدوات للكشف عن الاستخدامات الضارة للذكاء الاصطناعي.

    ومن ثم، تشمل الإجراءات الوقائية اللازمة لاحتواء مخاطر تقاطع الذكاء الاصطناعي والبيولوجيا حاليًا:

    • الفحص الإلزامي لتوليف الجينات: يجب أن يكون هناك نظام عالمي لفحص جميع طلبات توليف الجينات، بغض النظر عن حجم الشركة أو موقعها الجغرافي.
    • تحديث اللوائح: يجب تحديث اللوائح والقوانين الحالية لتغطية التطورات الحديثة في مجال البيولوجيا والذكاء الاصطناعي.
    • التعاون الدولي: يجب على الدول والشركات والمنظمات الدولية التعاون من أجل تطوير معايير مشتركة للأمن البيولوجي.
    • تطوير أدوات الذكاء الاصطناعي الدفاعية: يمكن استخدام الذكاء الاصطناعي نفسه لتطوير أدوات للكشف عن التهديدات البيولوجية الجديدة وتتبعها.

    وتجدر الإشارة إلى أهمية عامل الوقت هنا، إذ إن نماذج الذكاء الاصطناعي تتطور بسرعة، لذلك يتطلب التهديد التكاتف بين كافة الجهات لوضع حلول فعالة قبل أن يخرج الوضع عن السيطرة.

    الخلاصة:

    يمثل الذكاء الاصطناعي فرصة كبيرة للتقدم العلمي، ولكن يجب التعامل معه بحذر شديد. فبدون وضع ضوابط مناسبة، يمكن أن يؤدي إلى عواقب وخيمة على الأمن البيولوجي العالمي. لذلك يجب الاستثمار في البحث والتطوير في مجال الأمن البيولوجي، وتشجيع التعاون الدولي، كما  يجب على المجتمع الدولي أن يتخذ إجراءات عاجلة لتنظيم تطوير واستخدام الذكاء الاصطناعي، وضمان عدم استخدامه لأغراض ضارة.



    تم نسخ الرابط

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابقعلي بابا وإنفيديا تتعاونان في مجال القيادة الذاتية
    التالي Wear OS يحصل قريبًا على مزايا قياس الأكسجين في الدم

    المقالات ذات الصلة

    منوعات تقنية

    هل تصبح المنصة التعليمية الرقمية الجديدة بوابة سوريَة نحو عدالة التعليم والتحول الرقمي؟

    8 نوفمبر, 2025
    منوعات تقنية

    بين البنية التحتية والانفتاح الاستثماري.. كيف ترسم سوريَة خريطة تحولها الرقمي؟

    8 نوفمبر, 2025
    منوعات تقنية

    إطلاق متجر “أمازون بازار” للمنتجات الرخيصة الثمن في بعض الدول العربية

    8 نوفمبر, 2025
    منوعات تقنية

    جوجل تطلق Opal عالميًا.. أداة إنشاء التطبيقات بالذكاء الاصطناعي دون خبرة برمجية

    7 نوفمبر, 2025
    منوعات تقنية

    أمازون تطلق خدمة لترجمة الكتب الإلكترونية بالذكاء الاصطناعي

    7 نوفمبر, 2025
    منوعات تقنية

    تقرير.. ميتا تجني مليارات الدولارات من إعلانات احتيالية في منصاتها

    7 نوفمبر, 2025
    منوعات تقنية

    إيلون ماسك يقترب من أن يصبح أول تريليونير في العالم

    7 نوفمبر, 2025
    منوعات تقنية

    استثمار بالذكاء الاصطناعي.. جوجل تدمج Gemini في خدمتها المالية Google Finance

    7 نوفمبر, 2025
    منوعات تقنية

    أدوية ذكية.. ابتكار أجسام مضادة جديدة مطوّرة بالذكاء الاصطناعي

    7 نوفمبر, 2025
    اترك تعليقاً
    اترك تعليقاً إلغاء الرد

    Demo
    اخر الاخبار

    كيفية تسجيل مقاطع فيديو محمية بدون شاشة سوداء

    31 يوليو, 20241٬083 زيارة

    سامسونج جالكسي S25: الأخبار والسعر المتوقع وتاريخ الإصدار والمزيد

    4 يوليو, 2024795 زيارة

    كل ما تريد معرفته عن Reacher الموسم الثالث

    6 مايو, 2024768 زيارة

    Samsung Galaxy Watch 7: الأخبار والسعر المشاع وتاريخ الإصدار والمزيد

    2 أبريل, 2024715 زيارة

    يحصل iPhone على أول تطبيق إباحي أصلي له

    4 فبراير, 2025705 زيارة

    خدمة الإشعارات البريدية

    اشترك في خدمة الإشعارات البريدية ليصلك كل جديد الى بريدك الإلكتروني مباشرة.

    رائج الآن
    منوعات تقنية

    استخدم chatgpt بالعربي مجانا بدون تسجيل

    فريق التحرير29 مايو, 2025
    اخر الاخبار

    يحصل iPhone على أول تطبيق إباحي أصلي له

    فريق التحرير4 فبراير, 2025
    منوعات تقنية

    أقوى بوت تيليجرام تنزيل فيديوهات من مواقع التواصل

    فريق التحرير23 أبريل, 2025
    رائج الآن

    استخدم chatgpt بالعربي مجانا بدون تسجيل

    29 مايو, 202523 زيارة

    يحصل iPhone على أول تطبيق إباحي أصلي له

    4 فبراير, 202514 زيارة

    أقوى بوت تيليجرام تنزيل فيديوهات من مواقع التواصل

    23 أبريل, 202510 زيارة
    اختيارات المحرر

    منشئ “Pluribus” فينس جيليجان هو كاره للذكاء الاصطناعي بصوت عالٍ وفخور

    9 نوفمبر, 2025

    لعبة ARC Raiders تخطف الأضواء من الجميع بأكثر من 416 ألف لاعب متزامن!

    9 نوفمبر, 2025

    يخضع فيلم “Dynamic Duo” لمكالمة اختيار الأسبوع المقبل

    9 نوفمبر, 2025

    خدمة الإشعارات البريدية

    اشترك في خدمة الإشعارات البريدية ليصلك كل جديد الى بريدك الإلكتروني مباشرة.

    تقنية نيوز
    فيسبوك X (Twitter) الانستغرام يوتيوب لينكدإن تيكتوك
    • الرئيسية
    • سياسة الخصوصية
    • من نحن
    • اتصل بنا
    © 2025 تقنية نيوز. جميع حقوق النشر محفوظة.

    اكتب كلمة البحث ثم اضغط على زر Enter