والدة المبلغ عن المخالفات في OpenAI، سوشير بالاجي، الذي عُثر عليه ميتًا في شقته في سان فرانسيسكو في 26 نوفمبر، تدعو إلى إجراء تحقيق من قبل مكتب التحقيقات الفيدرالي في وفاته. توجهت بورنيما راماراو إلى X يوم الأحد لتعلن أن عائلة بالاجي استأجرت محققًا خاصًا، يُزعم أن نتائجه الأولية تشكك في قرار كبير الفاحصين الطبيين في المدينة بأن بالاجي مات منتحرًا.
عمل بالاجي، الذي كان يبلغ من العمر 26 عامًا فقط، في OpenAI لمدة أربع سنوات، حيث كان له دور رئيسي في جمع البيانات التي سيتم استخدامها لتدريب ChatGPT. ومع ذلك، فقد أصيب بخيبة أمل عندما تحول OpenAI من مختبر أبحاث غير ربحي إلى شركة تجارية، واستقال في أغسطس قبل أن يعلن عن نفسه في مقابلة مع صحيفة The Guardian. نيويورك تايمز ادعاء التعدي الجماعي على حق المؤلف. يخوض المنفذ الإخباري حاليًا معركة قانونية ساخنة مع شركة OpenAI التي تزعم أن ChatGPT قد تم تدريبه على مقالاته دون إذن.
يقول منشور راماراو (الذي يستخدم اللقب الأقصر “راو” على X): “لقد تم نهب شقة سوشير”. “علامة صراع في الحمام ويبدو أن أحدهم ضربه في الحمام بسبب بقع الدم”. لم يتم التحقق من هوية حساب X، لكنه شارك صورًا لبالاجي لا يبدو أنها منشورة في أي مكان آخر عبر الإنترنت. كما تم ربطه بحساب GoFundMe الذي يهدف إلى جمع الأموال لإجراء مزيد من التحقيقات، والذي جمع أكثر من 47000 دولار.
رد إيلون ماسك، الذي شارك في تأسيس OpenAI والمتورط حاليًا في دعوى قضائية ضد شركة الذكاء الاصطناعي العملاقة، على منشور راماراو قائلاً ببساطة: “هذا لا يبدو وكأنه انتحار”.
جيزمودو اتصلت بـ Ramarao للتعليق لكننا لم نسمع أي رد. وأشار OpenAI إلى بيان سابق أعرب فيه عن تعازيه للعائلة.
التحديث قيد التشغيل @سوشيربالاجي
قمنا بتعيين محقق خاص وقمنا بتشريح الجثة مرة أخرى لإلقاء الضوء على سبب الوفاة. تشريح الجثة الخاص لا يؤكد سبب الوفاة الذي ذكرته الشرطة.
تعرضت شقة سوشير للنهب، علامة وجود صراع في الحمام ويبدو أن أحدهم ضربه…
– بورنيما راو (@RaoPoornima) 29 ديسمبر 2024
بدأ Balaji العمل في OpenAI كمتدرب في عام 2018 وانضم إلى الشركة بدوام كامل في عام 2021. الأعمال من الداخل أجرت مقابلة مع راماراو بعد وفاة ابنها، وكتبت أن بالاجي كان موهوبًا منذ صغره وقدم مساهمات كبيرة في أساليب التدريب والبنية التحتية في ChatGPT خلال فترة وجوده هناك. وفي عام 2022، تم تكليفه بمهمة جمع البيانات من جميع أنحاء الإنترنت لاستخدامها في تدريب GPT-4، وهو النموذج الذي سيدعم إطلاق ChatGPT في نهاية ذلك العام.
بالنظر إلى أن OpenAI هي التي أطلقت سباق الذكاء الاصطناعي التوليدي في وادي السيليكون، فقد عمل Balaji كمبلغ رفيع المستوى عن المخالفات في المعركة حول ما إذا كان لشركات الذكاء الاصطناعي الحق في استخدام المحتوى بشكل علني عبر الويب في منتجاتها. إنه موضوع مثير للخلاف إلى حد كبير، حيث تدعي شركات الإعلام السرقة الصريحة بينما ينسبها المطلعون على صناعة التكنولوجيا إلى الاستخدام العادل. من المحتمل أن تكون عشرات المليارات من الدولارات على المحك، ومستقبل ما يعتقد البعض أنه التحول الرئيسي التالي في مجال التكنولوجيا. تتطلب النماذج اللغوية الكبيرة التي تعمل على تشغيل نماذج مثل ChatGPT كميات هائلة من بيانات التدريب، وخاصة النصوص المكتوبة، من أجل الكتابة مثل الإنسان وتقديم إجابات على أي سؤال يُطرح عليهم.
ليس من المفاجئ إذن أن يواجه بالاجي على الأرجح انتقادات شديدة وتنمرًا عبر الإنترنت بعد الإعلان عن مخاوفه. لقد رأى أي شخص عمل في وادي السيليكون كيف يمكن للضغوط لتحقيق النجاح أن تسبب ضغوطًا كبيرة ومشاكل أخرى تتعلق بالصحة العقلية. وهذا لا يشمل حتى عوامل الخطر الأخرى مثل المشكلات القانونية الناجمة عن تقديم شكوى للمبلغين عن المخالفات؛ فقدان الوظيفة والإضرار بآفاق العمل المستقبلية؛ أو العزلة الاجتماعية عن أقرانهم في الصناعة.
هل من الممكن أن يكون بلاجي قد تم استهدافه بسبب أفعاله؟ ربما، ولكن من الصعب الحفاظ على سرية المؤامرات، والإجابة المملة غالبًا ما تكون هي الصحيحة. ليس من الصعب أن نرى كيف أن كل ما كان يمر به بالاجي يمكن أن يؤدي إلى اليأس. لن تكون هذه هي الحالة الأولى للمبلغين عن المخالفات في مجال التكنولوجيا الذين ينهيون حياتهم بسبب معتقداتهم الأخلاقية أيضًا – حيث ورد أن العالم الرئيسي في شركة ثيرانوس، إيان جيبونز، انتحر بعد أن واجه ضغوطًا هائلة من المؤسس والمجرم المدان الآن إليزابيث هولمز بسبب مما يثير مخاوف بشأن صحة اختبارات الدم التي تجريها الشركة.
ليس من المستغرب أن يذهب والدا بالاجي إلى أقصى الحدود، على أمل العثور على إجابات وفي حالة من عدم التصديق لأنهما فقدا ابنهما. ربما سيكتشفون أن شيئًا أكثر شناعة قد حدث. ولكن ليس هناك سبب قوي للاعتقاد بأن هذا هو الحال في هذه المرحلة. نأمل أن يتمكنوا من العثور على الإغلاق الذي يبحثون عنه.