أعلنت كل من المنظمتين يوم الأربعاء عن شراكة بين OpenAI ومختبر لوس ألاموس الوطني لدراسة كيفية استخدام الذكاء الاصطناعي لمحاربة التهديدات البيولوجية التي يمكن أن يخلقها غير الخبراء باستخدام أدوات الذكاء الاصطناعي. ووصف مختبر لوس ألاموس، الذي تأسس لأول مرة في نيو مكسيكو خلال الحرب العالمية الثانية لتطوير القنبلة الذرية، هذا الجهد بأنه دراسة “أولى من نوعها” حول الأمن البيولوجي للذكاء الاصطناعي والطرق التي يمكن بها استخدام الذكاء الاصطناعي في بيئة المختبر.
إن الفارق بين البيانين الصادرين يوم الأربعاء من قبل شركة OpenAI ومختبر لوس ألاموس مذهل للغاية. يحاول بيان شركة OpenAI تصوير الشراكة على أنها مجرد دراسة حول كيفية “استخدام الذكاء الاصطناعي بأمان من قبل العلماء في بيئات المختبرات لتعزيز البحث العلمي البيولوجي”. ومع ذلك، يركز مختبر لوس ألاموس بشكل أكبر على حقيقة أن الأبحاث السابقة “وجدت أن ChatGPT-4 قدم تحسنًا طفيفًا في توفير المعلومات التي قد تؤدي إلى خلق تهديدات بيولوجية”.
لقد تركزت أغلب المناقشات العامة حول التهديدات التي تشكلها الذكاء الاصطناعي حول إنشاء كيان واعٍ بذاته يمكنه أن يطور عقلاً خاصاً به ويضر بالبشرية بطريقة ما. ويخشى البعض أن يؤدي تحقيق الذكاء الاصطناعي العام المتقدم ــ حيث يمكن للذكاء الاصطناعي أن يؤدي إلى التفكير والمنطق المتقدمين بدلاً من العمل كمولد كلمات تلقائي ــ إلى موقف على غرار سكاي نت. وفي حين استند العديد من معززي الذكاء الاصطناعي مثل إيلون ماسك والرئيس التنفيذي لشركة أوبن إيه آي سام ألتمان إلى هذا التوصيف، يبدو أن التهديد الأكثر إلحاحاً الذي يتعين علينا التصدي له هو التأكد من أن الناس لا يستخدمون أدوات مثل تشات جي بي تي لإنشاء أسلحة بيولوجية.
وقال مختبر لوس ألاموس في بيان نشر على موقعه على الإنترنت: “إن التهديدات البيولوجية المدعومة بالذكاء الاصطناعي قد تشكل خطرا كبيرا، لكن العمل الحالي لم يقيم كيف يمكن للنماذج الحدودية متعددة الوسائط أن تخفض حاجز الدخول لغير الخبراء لخلق تهديد بيولوجي”.
من المرجح أن يعود الاختلاف في المواقف بين المنظمتين إلى حقيقة مفادها أن شركة OpenAI قد تشعر بعدم الارتياح إزاء الاعتراف بالتداعيات الأمنية الوطنية المترتبة على تسليط الضوء على إمكانية استخدام منتجها من قبل الإرهابيين. ولتوضيح الأمر بشكل أكثر دقة، يستخدم بيان لوس ألاموس مصطلح “التهديد” أو “التهديدات” خمس مرات، في حين يستخدمه بيان OpenAI مرة واحدة فقط.
وقال إريك لوبورن، وهو باحث علمي في لوس ألاموس، في بيان يوم الأربعاء: “إن الإمكانات الإيجابية المحتملة لتنمية قدرات الذكاء الاصطناعي لا حصر لها. ومع ذلك، فإن قياس وفهم أي مخاطر محتملة أو إساءة استخدام للذكاء الاصطناعي المتقدم فيما يتعلق بالتهديدات البيولوجية لا يزال غير مستكشف إلى حد كبير. هذا العمل مع OpenAI هو خطوة مهمة نحو إنشاء إطار لتقييم النماذج الحالية والمستقبلية، وضمان التطوير المسؤول ونشر تقنيات الذكاء الاصطناعي”.
أرسلت لوس ألاموس إلى جيزمودو بيانًا كان متفائلًا بشكل عام بشأن مستقبل التكنولوجيا، حتى مع المخاطر المحتملة:
إن تكنولوجيا الذكاء الاصطناعي مثيرة للاهتمام لأنها أصبحت محركًا قويًا للاكتشاف والتقدم في العلوم والتكنولوجيا. وفي حين أن هذا من شأنه أن يؤدي إلى فوائد إيجابية للمجتمع إلى حد كبير، فمن المعقول أن تستخدم نفس النماذج في أيدي الجهات الفاعلة السيئة هذه التكنولوجيا لتجميع المعلومات التي تؤدي إلى إمكانية وضع “دليل إرشادي” للتهديدات البيولوجية. ومن المهم أن نأخذ في الاعتبار أن الذكاء الاصطناعي في حد ذاته ليس تهديدًا، بل إن التهديد يكمن في كيفية إساءة استخدامه.
لقد ركزت التقييمات السابقة في الغالب على فهم ما إذا كانت مثل هذه التقنيات للذكاء الاصطناعي قادرة على توفير “دليل إرشادي” دقيق. ومع ذلك، في حين قد يكون لدى الفاعل السيئ إمكانية الوصول إلى دليل دقيق للقيام بشيء شرير، فهذا لا يعني أنه سيكون قادرًا على ذلك. على سبيل المثال، قد تعرف أنك بحاجة إلى الحفاظ على العقم أثناء زراعة الخلايا أو استخدام مطياف الكتلة ولكن إذا لم تكن لديك خبرة في القيام بذلك من قبل فقد يكون من الصعب جدًا إنجاز ذلك.
إننا نحاول على نطاق أوسع أن نفهم أين وكيف تضيف تقنيات الذكاء الاصطناعي قيمة إلى سير العمل. إن الوصول إلى المعلومات (على سبيل المثال، إنشاء بروتوكول دقيق) هو أحد المجالات التي يمكن أن تساعد فيها هذه التقنيات، ولكن ليس من الواضح إلى أي مدى يمكن أن تساعدك تقنيات الذكاء الاصطناعي هذه على تعلم كيفية تنفيذ بروتوكول في المختبر بنجاح (أو أنشطة أخرى في العالم الحقيقي مثل ركل كرة القدم أو رسم صورة). سيسعى أول تقييم تجريبي للتكنولوجيا إلى فهم كيف يمكن للذكاء الاصطناعي تمكين الأفراد من تعلم كيفية تنفيذ البروتوكولات في العالم الحقيقي، وهو ما سيعطينا فهمًا أفضل ليس فقط لكيفية مساعدته في تمكين العلم ولكن أيضًا ما إذا كان سيمكن ممثلًا سيئًا من تنفيذ نشاط شرير في المختبر.
ويتم تنسيق جهود مختبر لوس ألاموس من قبل مجموعة تقييم المخاطر التقنية للذكاء الاصطناعي.
تصحيح: كانت النسخة السابقة من هذا المنشور تقتبس في الأصل بيانًا من Los Alamos على أنه من OpenAI. يأسف موقع Gizmodo على الخطأ.