أسس إيليا سوتسكيفر، كبير العلماء السابق في OpenAI الذي ترك شركة الذكاء الاصطناعي الناشئة في الشهر الماضي، شركة جديدة للذكاء الاصطناعي تركز على السلامة يطلق عليها اسم Safe Superintelligence، أو SSI.
وكتب سوتسكيفر عبر منصة إكس: “بدأت تأسيس شركة جديدة لإنشاء نظام ذكاء اصطناعي آمن وقوي. نسعى إلى تحقيق الذكاء الفائق الآمن مع تركيز واحد وهدف واحد ومنتج واحد”.
وتركز الشركة على إنشاء بيئة آمنة للذكاء الاصطناعي في الوقت الذي تتطلع فيه بعض شركات التكنولوجيا إلى السيطرة على طفرة الذكاء الاصطناعي التوليدي.
وكان سوتسكيفر يشغل منصب كبير العلماء في OpenAI وشارك في قيادة فريق Superalignment التابع للشركة مع جان لايكي، الذي غادر أيضًا في شهر مايو للانضمام إلى شركة أنثروبيك للذكاء الاصطناعي المنافسة.
وركز فريق OpenAI Superalignment على التوجيه والتحكم في أنظمة الذكاء الاصطناعي، مع أن الشركة حلت الفريق بعد وقت قصير من إعلان سوتسكيفر ولايكي رحيلهما.
ويستمر سوتسكيفر بالتركيز على السلامة في شركته الناشئة الجديدة. وقال حساب الشركة الناشئة عبر منصة إكس: “الذكاء الفائق الآمن هو مهمتنا واسمنا وخريطة طريق منتجاتنا بأكملها لأنه محور تركيزنا الوحيد”.
وأضاف: “تركيزنا الفردي يعني عدم تشتيت الانتباه عن طريق النفقات الإدارية العامة أو دورات المنتج، ونموذج أعمالنا يعني أن السلامة والأمن والتقدم كلها معزولة عن الضغوط التجارية القصيرة المدى”.
وبدأ سوتسكيفر الشركة مع دانييل جروس، الذي أشرف على جهود الذكاء الاصطناعي والبحث في آبل، ودانييل ليفي، الذي كان يعمل سابقًا في OpenAI.
وكان سوتسكيفر أحد أعضاء مجلس إدارة OpenAI الذين وقفوا وراء محاولة الإطاحة بسام ألتمان في شهر نوفمبر.
واختلف ألتمان وسوتسكيفر بخصوص حواجز الحماية التي وضعتها OpenAI في السعي وراء الذكاء الاصطناعي المتقدم.
وبعد الإطاحة المفاجئة بألتمان وقبل إعادته السريعة إلى منصبه، اعتذر سوتسكيفر علنًا عن دوره في هذه المحنة.
وكتب سوتسكيفر في منشور عبر منصة إكس في تاريخ 20 نوفمبر: “أنا آسف بشدة لمشاركتي في تصرفات مجلس الإدارة. لم أكن أقصد أبدًا الإضرار بشركة OpenAI. أحب كل ما بنيناه معًا وأبذل قصارى جهدي لإعادة توحيد الشركة”.