لم يكن استخدام الذكاء الاصطناعي في العديد من المجالات كمجال الرعاية الصحية والتصنيع وصناعة الأدوية وغير ذلك خاليًا تمامًا من المخاطر، فهناك دائمًا قلق بشأن الخصوصية وقلة جودة البيانات، والمخرجات غير الدقيقة وإساءة الاستخدام. لذلك يتطلب استخدام الذكاء الاصطناعي في أي مجال مراعاة إيجابياته وسلبياته والتركيز في المخاطر المحتملة لاستخدامه وكيفية التقليل منها أو منعها.
وفي مجال الأمن البيولوجي هناك قلق حول المخاطر المرتبطة بإساءة استخدام الذكاء الاصطناعي لتطوير مواد بيولوجية خطيرة، والتسبب في ضرر واسع النطاق. فقد أشار تقرير لوزارة الأمن الداخلي الأمريكية (DHS) إلى الإمكانات ذات الحدين للذكاء الاصطناعي لتعزيز الأمن البيولوجي للولايات المتحدة وتعريضه للخطر.
كيف يمكن أن يُعرّض الذكاء الاصطناعي الأمن البيولوجي للخطر؟
في شهر أبريل سلّمت وزارة الأمن الداخلي الأمريكية إلى البيت الأبيض تقريرًا حول تقليل المخاطر المرتبطة بإساءة استخدام الذكاء الاصطناعي لتطوير أو إنتاج مواد كيميائية وبيولوجية وإشعاعية ونووية (CBRN).
صدر التقرير استجابةً للأمر التنفيذي للرئيس بايدن بشأن الذكاء الاصطناعي الذي وقّعه العام الماضي، والذي طلب خلاله تقييمًا لخطر استخدام الذكاء الاصطناعي لتطوير أسلحة بيولوجية.
ففي تاريخ 30 من أكتوبر 2023، وقّع الرئيس بايدن على أمر تنفيذي بشأن السلامة والأمن والتطوير الجدير بالثقة لكيفية استخدام الذكاء الاصطناعي. وكان الهدف الأساسي من هذا الأمر ضمان أن تقود أمريكا الطريق في إدارة مخاطر الذكاء الاصطناعي وإنشاء إطار حوكمة لتطوير الذكاء الاصطناعي واستخدامه بنحو آمن ومسؤول.
أدت وزارة الأمن الداخلي (DHS) دورًا رئيسيًا في تنفيذ هذا الأمر الذي ركز جزء أساسي منه في الحاجة إلى فهم وتخفيف المخاطر المرتبطة بإساءة استخدام الذكاء الاصطناعي للمساعدة في تطوير أو استخدام المواد الكيميائية والبيولوجية والإشعاعية والنووية (CBRN) مع التركيز بنحو خاص في الأسلحة البيولوجية.
داخل وزارة الأمن الداخلي، أصدر مكتب مكافحة أسلحة الدمار الشامل (CWMD) تقرير AI CBRN الذي يقيّم إمكانية إساءة استخدام الذكاء الاصطناعي لتطوير أو إنتاج تهديدات كيميائية وبيولوجية وإشعاعية ونووية، مع النظر أيضًا في فوائد وطرق تطبيق الذكاء الاصطناعي لمواجهة هذه التهديدات.
ووفقًا للتقرير الذي أصدرته وزارة الأمن الداخلي، يؤثر الذكاء الاصطناعي بالفعل في البحث العلمي، ويمكن أن يكون له آثار إيجابية وسلبية اعتمادًا على نية المستخدمين وجودة البيانات.
إذ يمكن لنماذج الذكاء الاصطناعي المتاحة في الوقت الحالي أن تعزز قدرة العلماء على إنتاج وتطوير مواد كيميائية وبيولوجية جديدة، لكن بعض أنظمة الذكاء الاصطناعي الخاصة بالمجالات الكيميائية والبيولوجية تعاني ارتفاع معدلات الفشل ومخاوف بشأن صحة البيانات.
لذلك، يركز التقرير في أهمية تطوير أنظمة الذكاء الاصطناعي وتحسين دقتها، ويحذر من أن توفر الذكاء الاصطناعي على نطاق واسع يقلل الحواجز المانعة لتطوير مواد بيولوجية وكيميائية جديدة؛ مما يزيد من خطر قيام بعض الجهات الخطيرة بإجراء هجمات بيولوجية تهدد الأمن البيولوجي.
إذ يمكن استخدام النماذج اللغوية الكبيرة (LLMs) لإنشاء تهديدات بيولوجية بعدة طرق. على سبيل المثال: يمكن استخدامها لتطوير فيروسات أو بكتيريا جديدة يمكن أن تسبب ضررًا للبشر أو الحيوانات.
ويذكر التقرير أن الوتيرة الثورية للتغيير في قطاعات التكنولوجيا الحيوية والتصنيع الحيوي والذكاء الاصطناعي تزيد من التحديات التنظيمية الحالية، وقد أشارت وزارة الأمن الداخلي إلى أن الضوبط الحالية تفشل في حساب المخاطر التي تشكلها تسلسلات الأحماض النووية الضارة المحتمل إنشاؤها بمساعدة الذكاء الاصطناعي. ويمكن أن تسمح هذه الأنواع من الفجوات في الضوابط الحالية لبعض الجهات بإساءة استخدام الذكاء الاصطناعي لتطوير عوامل بيولوجية خطيرة، والتسبب في ضرر واسع النطاق.
من ناحية أخرى، يشير التقرير إلى أن إدماج الذكاء الاصطناعي في طرق وأساليب الوقاية من التهديدات الكيميائية والحيوية وكشفها يمكن أن يحقق فوائد مهمة، لكنه يُشير أيضًا إلى أن القيود التنظيمية الحالية تعيق قدرة الحكومة على الإشراف بنحو صحيح على البحث والتطوير والتنفيذ في مجال استخدام الذكاء الاصطناعي لتعزيز الأمن ضد المخاطر الحيوية. وهناك حاجة إلى المشاركة مع الحكومات والمنظمات الدولية وشركات الصناعة لتطوير مبادئ وأطر لإدارة مخاطر الذكاء الاصطناعي، وإطلاق العنان لإمكانات الذكاء الاصطناعي من أجل المصلحة العامة، ومواجهة التحديات المشتركة المرتبطة بتطوير الذكاء الاصطناعي وانتشاره بنحو واسع.
ما التوصيات التي قدمتها وزارة الأمن الداخلي لضمان الحفاظ على الأمن البيولوجي؟
ركزت وزارة الأمن الداخلي في الحاجة إلى التعاون الواسع بين القطاعات الحكومية والخاصة والأوساط الأكاديمية لضمان بقاء حواجز الحماية قوية حتى مع تطور الذكاء الاصطناعي. ويقدم التقرير عدة توصيات لضمان استمرار الأمن البيولوجي، وأبرزها:
1- مشاركة الخبرات:
من الضروري استمرار قطاع الصناعة والحكومة والأوساط الأكاديمية في التعاون وتبادل المعرفة ومشاركة الخبرات من أجل زيادة معايير السلامة والأمن المرتبطة بإنتاج وتطوير المواد الكيميائية والبيولوجية والإشعاعية والنووية باستخدام نماذج الذكاء الاصطناعي، وتحديد أفضل الممارسات وإستراتيجيات التخفيف من المخاطر المرتبطة بتطوير هذه المواد.
2- تعزيز حماية البيانات الكيميائية والبيولوجية الحساسة:
ينبغي للمطورين استخدام معايير مشددة لإمكانية الوصول إلى الأدوات والخدمات المتخصصة الشديدة الخطورة، مثل: أدوات الذكاء الاصطناعي الخاصة بإنشاء أو تطوير المواد البيولوجية أو المواد الكيميائية.
3- التدريب والتعليم:
يجب على المطورين توفير التدريب اللازم للتوعية بالتهديدات المرتبطة بإنتاج المواد البيولوجية والكيميائية والإشعاعية والنووية لمقيّمي النماذج أو الفرق التي تختبر نقاط الضعف في الذكاء الاصطناعي لتحسين الأمن الذي ينطوي عليه تطوير النموذج. ويمكن للحكومة والحلفاء الدوليين وخبراء الأمن تقديم الخبرة لدعم مثل هذا التدريب.
الخاتمة:
يمكن أن يُشكّل الذكاء الاصطناعي تهديدًا للأمن البيولوجي عند استخدام الجهات الخطيرة للنماذج اللغوية الكبيرة لتطوير مواد بيولوجية يمكن أن تهدد صحة البشر والحيوانات، ومع ذلك يمكن للتعاون بين الحكومات وشركات التكنولوجيا المطوّرة لأنظمة الذكاء الاصطناعي المساعدة في استخدام الذكاء الاصطناعي للحماية من التهديدات التي قد تمس الأمن البيولوجي عن طريق تعزيز حماية البيانات الكيميائية والبيولوجية الحساسة، وتوفير التدريب اللازم للجهات المختصة بتقييم نماذج الذكاء الاصطناعي لتتمكن من تحديد نقاط الضعف في تلك النماذج.