انتقاد حول سلامة الذكاء الاصطناعى من باحث Openai الذي يستهدف منافسًا ، فتح نافذة في صراع الصناعة: معركة ضد نفسها.
لقد بدأت بتحذير من Boaz Barak ، أستاذ بجامعة هارفارد حاليًا في إجازة ويعمل على السلامة في Openai. ودعا إطلاق نموذج Grok من Xai “غير مسؤول تمامًا” ، ليس بسبب الغريبة التي ترتدي عنوانها ، ولكن بسبب ما كان مفقودًا: بطاقة نظام عامة ، وتقييمات سلامة مفصلة ، والتحف الأساسية للشفافية التي أصبحت القاعدة الهشية.
لقد كانت مكالمة واضحة وضرورية. لكن انعكاسًا صريحًا ، تم نشره بعد ثلاثة أسابيع فقط من مغادرته للشركة ، من مهندس Openai السابق Calvin French-Owen ، يظهر لنا النصف الآخر من القصة.
يشير رواية French-Owen إلى أن عددًا كبيرًا من الأشخاص في Openai يعملون بالفعل على السلامة ، مع التركيز على تهديدات حقيقية للغاية مثل خطاب الكراهية والأسلحة الحيوية والضعف الذاتي. ومع ذلك ، فهو يقدم البصيرة: “لم يتم نشر معظم العمل الذي تم إنجازه” ، مضيفًا أن Openai “يجب أن تفعل المزيد للوصول إليه هناك”.
هنا ، فإن السرد البسيط لممثل جيد يوبخ واحد سيئ ينهار. في مكانها ، نرى المعضلة الحقيقية على مستوى الصناعة وضعت عارية. يتم القبض على صناعة الذكاء الاصطناعى بأكملها في “مفارقة السلامة-السرعة” ، وهو تعارض هيكلي عميق بين الحاجة إلى التحرك بسرعة كسر للمنافسة والحاجة الأخلاقية إلى التحرك بحذر للحفاظ على سلامتنا.
يقترح French-Owen أن Openai في حالة من الفوضى الخاضعة للرقابة ، حيث تضاعف ثلاثة أضعاف من عدد الموظفين إلى أكثر من 3000 في عام واحد ، حيث “كل شيء ينهار عندما تتوسع بسرعة”. يتم توجيه هذه الطاقة الفوضوية من خلال الضغط الهائل على “سباق ثلاثة حصان” إلى AGI ضد Google و Anthropic. والنتيجة هي ثقافة السرعة المذهلة ، ولكن أيضا واحدة من السرية.
النظر في إنشاء Codex ، وكيل ترميز Openai. يصف French-Owen المشروع بأنه “Sprint Mad-Dash” ، حيث قام فريق صغير ببناء منتج ثوري من نقطة الصفر في سبعة أسابيع فقط.
هذا مثال على الكتب المدرسية للسرعة. وصف العمل حتى منتصف الليل معظم الليالي وحتى خلال عطلات نهاية الأسبوع لتحقيق ذلك. هذه هي التكلفة البشرية لتلك السرعة. في بيئة تحرك هذا بسرعة ، هل من عجب أن العمل البطيء والمنهجي لنشر أبحاث سلامة الذكاء الاصطناعي يبدو وكأنه إلهاء عن السباق؟
هذه المفارقة لا تولد من الخبث ، ولكن من مجموعة من القوى القوية المتشابكة.
هناك ضغط تنافسي واضح ليكون أولاً. هناك أيضًا الحمض النووي الثقافي لهذه المختبرات ، التي بدأت كمجموعات فضفاضة من “العلماء والعبثين” وإنجازات تغيير القيمة على العمليات المنهجية. وهناك مشكلة بسيطة في القياس: من السهل تحديد السرعة والأداء ، ولكن من الصعب للغاية تحديد كارثة تم منعها بنجاح.
في قاعات مجلس الإدارة اليوم ، سوف تصرخ المقاييس المرئية للسرعة دائمًا بصوت أعلى من النجاحات غير المرئية للسلامة. ومع ذلك ، للمضي قدمًا ، لا يمكن أن يكون الأمر يتعلق بتوجيه الأصابع – يجب أن يكون حول تغيير القواعد الأساسية للعبة.
نحتاج إلى إعادة تعريف ما يعنيه شحن منتج ، وجعل نشر حالة السلامة جزءًا لا يتجزأ من الكود نفسه. نحتاج إلى معايير على مستوى الصناعة تمنع أي شركة فردية من معاقبتها بشكل تنافسي من أجل الاجتهاد ، وتحول السلامة من ميزة إلى أساس مشترك غير قابل للتفاوض.
ومع ذلك ، الأهم من ذلك كله ، نحن بحاجة إلى تنمية ثقافة داخل مختبرات AI حيث يشعر كل مهندس – وليس فقط قسم السلامة – بشعور بالمسؤولية.
السباق لإنشاء AGI لا يتعلق بمن يصل إلى هناك أولاً ؛ إنه يتعلق بكيفية وصولنا. لن يكون الفائز الحقيقي هو الشركة التي هي الأسرع ، ولكن الشركة التي تثبت لعالم مشاهدة أن الطموح والمسؤولية يمكن ، ويجب ، المضي قدمًا معًا.
(تصوير أولو أولاميجوكي جونيور)
انظر أيضا: عقود الذكاء الاصطناعى العسكري الممنوحة للعسول ، أوبوباي ، وجوجل ، و XAI
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الكبيرة من قادة الصناعة؟ تحقق من AI و Big Data Expo الذي يقام في أمستردام ، كاليفورنيا ، ولندن. تم تحديد الحدث الشامل مع الأحداث الرائدة الأخرى بما في ذلك مؤتمر الأتمتة الذكي ، و blockx ، وأسبوع التحول الرقمي ، ومعرض Cyber Security & Cloud.
استكشاف أحداث وندوات الويب القادمة الأخرى التي تعمل بها TechForge هنا.