تواجه شركة OpenAI موجة من الصراعات الداخلية والانتقادات الخارجية بشأن ممارساتها والمخاطر المحتملة التي تشكلها التكنولوجيا الخاصة بها.
في شهر مايو، غادر العديد من الموظفين البارزين الشركة، بما في ذلك جان لايكي، الرئيس السابق لجهود “المواءمة الفائقة” في OpenAI لضمان بقاء أنظمة الذكاء الاصطناعي المتقدمة متوافقة مع القيم الإنسانية. جاء خروج Leike بعد وقت قصير من كشف OpenAI عن نموذجها الرائد الجديد GPT-4o، والذي وصفته بأنه “سحري” في حدث Spring Update.
وفقًا للتقارير، كان رحيل Leike مدفوعًا بالخلافات المستمرة حول الإجراءات الأمنية وممارسات المراقبة وإعطاء الأولوية لإصدارات المنتجات المبهرجة على اعتبارات السلامة.
لقد فتح خروج Leike صندوق باندورا لشركة الذكاء الاصطناعي. تقدم أعضاء مجلس إدارة OpenAI السابقون بمزاعم الاعتداء النفسي الموجهة ضد الرئيس التنفيذي سام ألتمان وقيادة الشركة.
يتزامن الاضطراب الداخلي المتزايد في OpenAI مع تزايد المخاوف الخارجية بشأن المخاطر المحتملة التي تشكلها تكنولوجيا الذكاء الاصطناعي التوليدية مثل نماذج اللغة الخاصة بالشركة. وقد حذر النقاد من التهديد الوجودي الوشيك المتمثل في تجاوز الذكاء الاصطناعي المتقدم للقدرات البشرية، فضلاً عن المخاطر الأكثر إلحاحاً مثل إزاحة الوظائف واستخدام الذكاء الاصطناعي كسلاح لحملات التضليل والتلاعب.
رداً على ذلك، قامت مجموعة من الموظفين الحاليين والسابقين من OpenAI، وAnthropic، وDeepMind، وغيرها من شركات الذكاء الاصطناعي الرائدة بكتابة رسالة مفتوحة تتناول هذه المخاطر.
“نحن موظفون حاليون وسابقون في شركات الذكاء الاصطناعي الرائدة، ونؤمن بإمكانيات تكنولوجيا الذكاء الاصطناعي لتقديم فوائد غير مسبوقة للبشرية. كما أننا نتفهم المخاطر الجسيمة التي تشكلها هذه التقنيات.
“وتتراوح هذه المخاطر من زيادة ترسيخ عدم المساواة القائمة، إلى التلاعب والتضليل، إلى فقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة مما قد يؤدي إلى انقراض الإنسان. وقد اعترفت شركات الذكاء الاصطناعي نفسها بهذه المخاطر، كما فعلت الحكومات في جميع أنحاء العالم، وغيرهم من خبراء الذكاء الاصطناعي.
تحدد الرسالة، التي وقعها 13 موظفًا وأيدها رواد الذكاء الاصطناعي يوشوا بنجيو وجيفري هينتون، أربعة مطالب أساسية تهدف إلى حماية المبلغين عن المخالفات وتعزيز قدر أكبر من الشفافية والمساءلة حول تطوير الذكاء الاصطناعي:
- أن الشركات لن تطبق شروط عدم الاستخفاف أو الانتقام من الموظفين لإثارة المخاوف المتعلقة بالمخاطر.
- ستعمل هذه الشركات على تسهيل عملية مجهولة المصدر يمكن التحقق منها للموظفين لإثارة مخاوفهم إلى مجالس الإدارة والجهات التنظيمية والخبراء المستقلين.
- ستدعم الشركات ثقافة النقد المفتوح وتسمح للموظفين بمشاركة المخاوف المتعلقة بالمخاطر علنًا، مع توفير الحماية المناسبة للأسرار التجارية.
- أن الشركات لن تنتقم من الموظفين الذين يشاركون المعلومات السرية المتعلقة بالمخاطر بعد فشل العمليات الأخرى.
قال دانييل كوكوتاجلو، الموظف السابق في OpenAI الذي ترك العمل بسبب مخاوف بشأن: “لقد وافقوا هم وآخرون على نهج “التحرك بسرعة وكسر الأشياء”، وهذا هو عكس ما هو مطلوب لتكنولوجيا بهذه القوة والتي لا يمكن فهمها بشكل جيد”. قيم الشركة وانعدام المسؤولية.
وتأتي هذه المطالب وسط تقارير تفيد بأن OpenAI أجبرت الموظفين المغادرين على التوقيع على اتفاقيات عدم الإفصاح التي تمنعهم من انتقاد الشركة أو المخاطرة بفقدان أسهمهم المكتسبة. واعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأنه “محرج” من الموقف، لكنه ادعى أن الشركة لم تسترد أبدًا الأسهم المكتسبة لأي شخص.
مع تقدم ثورة الذكاء الاصطناعي، فإن الصراع الداخلي ومطالب المبلغين عن المخالفات في OpenAI تؤكد الآلام المتزايدة والمآزق الأخلاقية التي لم يتم حلها والتي تحيط بالتكنولوجيا.
أنظر أيضا: OpenAI تعطل خمس عمليات تأثير سرية
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. ويقام هذا الحدث الشامل في موقع مشترك مع أحداث رائدة أخرى بما في ذلك مؤتمر الأتمتة الذكية، وBlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابي.
استكشف الأحداث والندوات عبر الإنترنت القادمة الأخرى المتعلقة بتكنولوجيا المؤسسات والمدعومة من TechForge هنا.