وفقًا للتقارير، تم حل فريق OpenAI's Superalignment، المكلف بالتحكم في الخطر الوجودي لنظام الذكاء الاصطناعي الخارق، سلكي يوم الجمعة. وتأتي هذه الأخبار بعد أيام فقط من إعلان مؤسسي الفريق، إيليا سوتسكيفر وجان لايكي، في نفس الوقت ترك الشركة.
ذكرت Wired أن فريق OpenAI's Superalignment، الذي تم إطلاقه لأول مرة في يوليو 2023 لمنع أنظمة الذكاء الاصطناعي الخارقة في المستقبل من أن تصبح مارقة، لم يعد موجودًا. ويشير التقرير إلى أنه سيتم استيعاب عمل المجموعة في الجهود البحثية الأخرى التي تبذلها شركة OpenAI. البحث عن المخاطر المرتبطة بنماذج الذكاء الاصطناعي الأكثر قوة سيقوده الآن المؤسس المشارك لشركة OpenAI، جون شولمان، وفقًا لموقع Wired. كان Sutskever وLeike من كبار علماء OpenAI الذين ركزوا على مخاطر الذكاء الاصطناعي.
نشرت لايك أ خيط طويل على X الجمعة يشرح بشكل غامض سبب تركه لـ OpenAI. ويقول إنه كان يتقاتل مع قيادة OpenAI حول القيم الأساسية لبعض الوقت، لكنه وصل إلى نقطة الانهيار هذا الأسبوع. وأشار Leike إلى أن فريق Superaligment كان “يبحر ضد الريح”، ويكافح من أجل الحصول على ما يكفي من الحوسبة لإجراء الأبحاث المهمة. وهو يعتقد أن OpenAI بحاجة إلى التركيز بشكل أكبر على الأمن والسلامة والمواءمة.
قال فريق Superalignment في منشور على مدونة OpenAI: “في الوقت الحالي، ليس لدينا حل لتوجيه أو التحكم في الذكاء الاصطناعي الفائق الذكاء، ومنعه من أن يصبح مارقًا”. تم إطلاقه في يوليو. “لكن البشر لن يكونوا قادرين على الإشراف بشكل موثوق على أنظمة الذكاء الاصطناعي بشكل أكثر ذكاءً منا، وبالتالي فإن تقنيات المحاذاة الحالية لدينا لن ترقى إلى مستوى الذكاء الفائق. نحن بحاجة إلى إنجازات علمية وتقنية جديدة.”
ومن غير الواضح الآن ما إذا كان سيتم إيلاء نفس الاهتمام لتلك الاختراقات التقنية. مما لا شك فيه أن هناك فرقًا أخرى في OpenAI تركز على السلامة. فريق شولمان، الذي يقال إنه يتولى مسؤوليات Superalignment، مسؤول حاليًا عن ضبط نماذج الذكاء الاصطناعي بعد التدريب. ومع ذلك، ركزت عملية المحاذاة الفائقة بشكل خاص على النتائج الأكثر خطورة للذكاء الاصطناعي المارق. كما أشار Gizmodo بالأمس، فقد فعل ذلك العديد من المدافعين الأكثر صراحةً عن سلامة الذكاء الاصطناعي في OpenAI استقال أو تم طرده في الأشهر القليلة الماضية.
وفي وقت سابق من هذا العام، أصدرت المجموعة ورقة بحثية بارزة حول التحكم في نماذج الذكاء الاصطناعي الكبيرة باستخدام نماذج الذكاء الاصطناعي الأصغر– تعتبر خطوة أولى نحو التحكم في أنظمة الذكاء الاصطناعي فائقة الذكاء. ليس من الواضح من الذي سيتخذ الخطوات التالية في هذه المشاريع في OpenAI.
لم يستجب OpenAI على الفور لطلب Gizmodo للتعليق.
بدأت شركة Sam Altman الناشئة في مجال الذكاء الاصطناعي هذا الأسبوع الكشف عن GPT-4 Omni، أحدث طراز رائد للشركة والذي يتميز باستجابات زمن الوصول المنخفضة للغاية والتي بدت أكثر إنسانية من أي وقت مضى. لاحظ العديد من موظفي OpenAI كيف أن نموذج الذكاء الاصطناعي الأحدث الخاص بها أصبح أقرب من أي وقت مضى إلى شيء من الخيال العلمي، وتحديدًا الفيلم ها.