Close Menu
تقنية نيوزتقنية نيوز

    خدمة الإشعارات البريدية

    اشترك في خدمة الإشعارات البريدية ليصلك كل جديد الى بريدك الإلكتروني مباشرة.

    مقالات قد تهمك

    أحد مطوري Halo الأصليين غير راضي عن ريميك Campaign Evolved

    25 أكتوبر, 2025

    تريد ليدجر أن تتفوق محفظة العملات المشفرة الأحدث الخاصة بها على مدار مسح مقلة العين الخاص بسام ألتمان

    25 أكتوبر, 2025

    لأول مرة منذ خمسة سنوات.. قسم Xbox يحقق أهداف مايكروسوفت المالية!

    25 أكتوبر, 2025
    فيسبوك X (Twitter) الانستغرام
    • من نحن
    • سياسة الخصوصية
    • اتصل بنا
    فيسبوك X (Twitter) الانستغرام يوتيوب
    تقنية نيوزتقنية نيوز
    • الرئيسية
    • اخر الاخبار
    • هواتف ذكية
    • كمبيوتر
    • برامج وتطبيقات
    • شركات
      • ابل
      • سامسونج
      • جوجل
      • مايكروسوفت
      • أمازون
    • المزيد
      • الذكاء الإصطناعي
      • الأمن الإلكتروني
      • ألعاب
      • منوعات تقنية
    اشترك معنا
    تقنية نيوزتقنية نيوز
    الرئيسية » كيف يهدد الذكاء الاصطناعي الأمن البيولوجي وما طرق الوقاية المناسبة؟
    منوعات تقنية

    كيف يهدد الذكاء الاصطناعي الأمن البيولوجي وما طرق الوقاية المناسبة؟

    فريق التحريربواسطة فريق التحرير27 يونيو, 20240 زيارةلا توجد تعليقات
    شاركها فيسبوك تويتر بينتيريست لينكدإن Tumblr رديت تيلقرام البريد الإلكتروني
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    لم يكن استخدام الذكاء الاصطناعي في العديد من المجالات كمجال الرعاية الصحية والتصنيع وصناعة الأدوية وغير ذلك خاليًا تمامًا من المخاطر، فهناك دائمًا قلق بشأن الخصوصية وقلة جودة البيانات، والمخرجات غير الدقيقة وإساءة الاستخدام. لذلك يتطلب استخدام الذكاء الاصطناعي في أي مجال مراعاة إيجابياته وسلبياته والتركيز في المخاطر المحتملة لاستخدامه وكيفية التقليل منها أو منعها.

    وفي مجال الأمن البيولوجي هناك قلق حول المخاطر المرتبطة بإساءة استخدام الذكاء الاصطناعي لتطوير مواد بيولوجية خطيرة، والتسبب في ضرر واسع النطاق. فقد أشار تقرير لوزارة الأمن الداخلي الأمريكية (DHS) إلى الإمكانات ذات الحدين للذكاء الاصطناعي لتعزيز الأمن البيولوجي للولايات المتحدة وتعريضه للخطر.

    كيف يمكن أن يُعرّض الذكاء الاصطناعي الأمن البيولوجي للخطر؟

    في شهر أبريل سلّمت وزارة الأمن الداخلي الأمريكية إلى البيت الأبيض تقريرًا حول تقليل المخاطر المرتبطة بإساءة استخدام الذكاء الاصطناعي لتطوير أو إنتاج مواد كيميائية وبيولوجية وإشعاعية ونووية (CBRN).

    صدر التقرير استجابةً للأمر التنفيذي للرئيس بايدن بشأن الذكاء الاصطناعي الذي وقّعه العام الماضي، والذي طلب خلاله تقييمًا لخطر استخدام الذكاء الاصطناعي لتطوير أسلحة بيولوجية.

    ففي تاريخ 30 من أكتوبر 2023، وقّع الرئيس بايدن على أمر تنفيذي بشأن السلامة والأمن والتطوير الجدير بالثقة لكيفية استخدام الذكاء الاصطناعي. وكان الهدف الأساسي من هذا الأمر ضمان أن تقود أمريكا الطريق في إدارة مخاطر الذكاء الاصطناعي وإنشاء إطار حوكمة لتطوير الذكاء الاصطناعي واستخدامه بنحو آمن ومسؤول.

    أدت وزارة الأمن الداخلي (DHS) دورًا رئيسيًا في تنفيذ هذا الأمر الذي ركز جزء أساسي منه في الحاجة إلى فهم وتخفيف المخاطر المرتبطة بإساءة استخدام الذكاء الاصطناعي للمساعدة في تطوير أو استخدام المواد الكيميائية والبيولوجية والإشعاعية والنووية (CBRN) مع التركيز بنحو خاص في الأسلحة البيولوجية.

    داخل وزارة الأمن الداخلي، أصدر مكتب مكافحة أسلحة الدمار الشامل (CWMD) تقرير AI CBRN الذي يقيّم إمكانية إساءة استخدام الذكاء الاصطناعي لتطوير أو إنتاج تهديدات كيميائية وبيولوجية وإشعاعية ونووية، مع النظر أيضًا في فوائد وطرق تطبيق الذكاء الاصطناعي لمواجهة هذه التهديدات.

    ووفقًا للتقرير الذي أصدرته وزارة الأمن الداخلي، يؤثر الذكاء الاصطناعي بالفعل في البحث العلمي، ويمكن أن يكون له آثار إيجابية وسلبية اعتمادًا على نية المستخدمين وجودة البيانات.

    إذ يمكن لنماذج الذكاء الاصطناعي المتاحة في الوقت الحالي أن تعزز قدرة العلماء على إنتاج وتطوير مواد كيميائية وبيولوجية جديدة، لكن بعض أنظمة الذكاء الاصطناعي الخاصة بالمجالات الكيميائية والبيولوجية تعاني ارتفاع معدلات الفشل ومخاوف بشأن صحة البيانات.

    لذلك، يركز التقرير في أهمية تطوير أنظمة الذكاء الاصطناعي وتحسين دقتها، ويحذر من أن توفر الذكاء الاصطناعي على نطاق واسع يقلل الحواجز المانعة لتطوير مواد بيولوجية وكيميائية جديدة؛ مما يزيد من خطر قيام بعض الجهات الخطيرة بإجراء هجمات بيولوجية تهدد الأمن البيولوجي.

    إذ يمكن استخدام النماذج اللغوية الكبيرة (LLMs) لإنشاء تهديدات بيولوجية بعدة طرق. على سبيل المثال: يمكن استخدامها لتطوير فيروسات أو بكتيريا جديدة يمكن أن تسبب ضررًا للبشر أو الحيوانات. 

    ويذكر التقرير أن الوتيرة الثورية للتغيير في قطاعات التكنولوجيا الحيوية والتصنيع الحيوي والذكاء الاصطناعي تزيد من التحديات التنظيمية الحالية، وقد أشارت وزارة الأمن الداخلي إلى أن الضوبط الحالية تفشل في حساب المخاطر التي تشكلها تسلسلات الأحماض النووية الضارة المحتمل إنشاؤها بمساعدة الذكاء الاصطناعي. ويمكن أن تسمح هذه الأنواع من الفجوات في الضوابط الحالية لبعض الجهات بإساءة استخدام الذكاء الاصطناعي لتطوير عوامل بيولوجية خطيرة، والتسبب في ضرر واسع النطاق.

    من ناحية أخرى، يشير التقرير إلى أن إدماج الذكاء الاصطناعي في طرق وأساليب الوقاية من التهديدات الكيميائية والحيوية وكشفها يمكن أن يحقق فوائد مهمة، لكنه يُشير أيضًا إلى أن القيود التنظيمية الحالية تعيق قدرة الحكومة على الإشراف بنحو صحيح على البحث والتطوير والتنفيذ في مجال استخدام الذكاء الاصطناعي لتعزيز الأمن ضد المخاطر الحيوية. وهناك حاجة إلى المشاركة مع الحكومات والمنظمات الدولية وشركات الصناعة لتطوير مبادئ وأطر لإدارة مخاطر الذكاء الاصطناعي، وإطلاق العنان لإمكانات الذكاء الاصطناعي من أجل المصلحة العامة، ومواجهة التحديات المشتركة المرتبطة بتطوير الذكاء الاصطناعي وانتشاره بنحو واسع.

    ما التوصيات التي قدمتها وزارة الأمن الداخلي لضمان الحفاظ على الأمن البيولوجي؟

    ركزت وزارة الأمن الداخلي في الحاجة إلى التعاون الواسع بين القطاعات الحكومية والخاصة والأوساط الأكاديمية لضمان بقاء حواجز الحماية قوية حتى مع تطور الذكاء الاصطناعي. ويقدم التقرير عدة توصيات لضمان استمرار الأمن البيولوجي، وأبرزها:

    1- مشاركة الخبرات:

    من الضروري استمرار قطاع الصناعة والحكومة والأوساط الأكاديمية في التعاون وتبادل المعرفة ومشاركة الخبرات من أجل زيادة معايير السلامة والأمن المرتبطة بإنتاج وتطوير المواد الكيميائية والبيولوجية والإشعاعية والنووية باستخدام نماذج الذكاء الاصطناعي، وتحديد أفضل الممارسات وإستراتيجيات التخفيف من المخاطر المرتبطة بتطوير هذه المواد.

    2- تعزيز حماية البيانات الكيميائية والبيولوجية الحساسة:

    ينبغي للمطورين استخدام معايير مشددة لإمكانية الوصول إلى الأدوات والخدمات المتخصصة الشديدة الخطورة، مثل: أدوات الذكاء الاصطناعي الخاصة بإنشاء أو تطوير المواد البيولوجية أو المواد الكيميائية. 

    3- التدريب والتعليم:

    يجب على المطورين توفير التدريب اللازم للتوعية بالتهديدات المرتبطة بإنتاج المواد البيولوجية والكيميائية والإشعاعية والنووية لمقيّمي النماذج أو الفرق التي تختبر نقاط الضعف في الذكاء الاصطناعي لتحسين الأمن الذي ينطوي عليه تطوير النموذج. ويمكن للحكومة والحلفاء الدوليين وخبراء الأمن تقديم الخبرة لدعم مثل هذا التدريب.

    الخاتمة:

    يمكن أن يُشكّل الذكاء الاصطناعي تهديدًا للأمن البيولوجي عند استخدام الجهات الخطيرة للنماذج اللغوية الكبيرة لتطوير مواد بيولوجية يمكن أن تهدد صحة البشر والحيوانات، ومع ذلك يمكن للتعاون بين الحكومات وشركات التكنولوجيا المطوّرة لأنظمة الذكاء الاصطناعي المساعدة في استخدام الذكاء الاصطناعي للحماية من التهديدات التي قد تمس الأمن البيولوجي عن طريق تعزيز حماية البيانات الكيميائية والبيولوجية الحساسة، وتوفير التدريب اللازم للجهات المختصة بتقييم نماذج الذكاء الاصطناعي لتتمكن من تحديد نقاط الضعف في تلك النماذج.



    تم نسخ الرابط

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابقBounty Hunter هي أحدث نسخة ريماستر للألعاب الكلاسيكية من Star Wars
    التالي كيف تعيد الطباعة الثلاثية الأبعاد تشكيل مستقبل قطاع البناء في الإمارات؟

    المقالات ذات الصلة

    منوعات تقنية

    الإنترنت تحت رحمة الحوسبة السحابية.. أعطال بسيطة تهدد اقتصادًا عالميًا

    24 أكتوبر, 2025
    منوعات تقنية

    منصة واحدة لكل شيء.. ChatGPT يجمع بيانات الشركات في مكانٍ واحد

    24 أكتوبر, 2025
    منوعات تقنية

    متصفح ChatGPT Atlas.. مخاوف أمنية ووعود بتحسينات مستقبلية

    24 أكتوبر, 2025
    منوعات تقنية

    التوأم الرقمي وثورة التيراهيرتز .. د. نضال ظريفة يكشف ثلاثية تقنيات الجيل السادس

    24 أكتوبر, 2025
    منوعات تقنية

    كوبايلوت يتطور.. مايكروسوفت تطلق أكبر سلسلة تحديثات لمساعدها الذكي

    23 أكتوبر, 2025
    منوعات تقنية

    ChatGPT يودّع واتساب بعد أقل من عام على إطلاقه

    23 أكتوبر, 2025
    منوعات تقنية

    قفزة جديدة في الحوسبة الكمّية.. هل بدأت جوجل عصر الحوسبة الفائقة حقًا؟

    23 أكتوبر, 2025
    منوعات تقنية

    كيف يعزز مختبر “روبوتكس باي” في “كاوست” ريادة السعودية في الذكاء الاصطناعي والروبوتات؟ 

    23 أكتوبر, 2025
    منوعات تقنية

    سامسونج و Perplexity.. تعاون جديد لإتاحة الذكاء الاصطناعي في أجهزة التلفاز

    22 أكتوبر, 2025
    اترك تعليقاً
    اترك تعليقاً إلغاء الرد

    Demo
    اخر الاخبار

    كيفية تسجيل مقاطع فيديو محمية بدون شاشة سوداء

    31 يوليو, 20241٬062 زيارة

    سامسونج جالكسي S25: الأخبار والسعر المتوقع وتاريخ الإصدار والمزيد

    4 يوليو, 2024794 زيارة

    كل ما تريد معرفته عن Reacher الموسم الثالث

    6 مايو, 2024766 زيارة

    Samsung Galaxy Watch 7: الأخبار والسعر المشاع وتاريخ الإصدار والمزيد

    2 أبريل, 2024715 زيارة

    يحصل iPhone على أول تطبيق إباحي أصلي له

    4 فبراير, 2025668 زيارة

    خدمة الإشعارات البريدية

    اشترك في خدمة الإشعارات البريدية ليصلك كل جديد الى بريدك الإلكتروني مباشرة.

    رائج الآن
    منوعات تقنية

    بجودة عالمية ودعم محلي غير مسبوق.. “كيرنو” الإماراتية ترسم ملامح جديدة لصناعة التقنية في الخليج

    فريق التحرير18 أكتوبر, 2025
    اخر الاخبار

    يحصل iPhone على أول تطبيق إباحي أصلي له

    فريق التحرير4 فبراير, 2025
    منوعات تقنية

    كلية الإمارات للتطوير التربوي تُطلق برنامج “آفاق”.. خطوة جديدة نحو تعليم أكثر ذكاءً

    فريق التحرير17 أكتوبر, 2025
    رائج الآن

    بجودة عالمية ودعم محلي غير مسبوق.. “كيرنو” الإماراتية ترسم ملامح جديدة لصناعة التقنية في الخليج

    18 أكتوبر, 202518 زيارة

    يحصل iPhone على أول تطبيق إباحي أصلي له

    4 فبراير, 202517 زيارة

    كلية الإمارات للتطوير التربوي تُطلق برنامج “آفاق”.. خطوة جديدة نحو تعليم أكثر ذكاءً

    17 أكتوبر, 202513 زيارة
    اختيارات المحرر

    أحد مطوري Halo الأصليين غير راضي عن ريميك Campaign Evolved

    25 أكتوبر, 2025

    تريد ليدجر أن تتفوق محفظة العملات المشفرة الأحدث الخاصة بها على مدار مسح مقلة العين الخاص بسام ألتمان

    25 أكتوبر, 2025

    لأول مرة منذ خمسة سنوات.. قسم Xbox يحقق أهداف مايكروسوفت المالية!

    25 أكتوبر, 2025

    خدمة الإشعارات البريدية

    اشترك في خدمة الإشعارات البريدية ليصلك كل جديد الى بريدك الإلكتروني مباشرة.

    تقنية نيوز
    فيسبوك X (Twitter) الانستغرام يوتيوب لينكدإن تيكتوك
    • الرئيسية
    • سياسة الخصوصية
    • من نحن
    • اتصل بنا
    © 2025 تقنية نيوز. جميع حقوق النشر محفوظة.

    اكتب كلمة البحث ثم اضغط على زر Enter