اتهم خبير منظمة العفو الدولية Openai بإعادة كتابة تاريخها والرفض المفرط لمخاوف السلامة.
انتقد الباحث السابق للسياسة Openai Miles Brundage وثيقة السلامة والمحاذاة التي أجريت في الشركة المنشورة هذا الأسبوع. تصف المستند Openai بأنه يسعى جاهداً للذكاء العام الاصطناعي (AGI) في العديد من الخطوات الصغيرة ، بدلاً من تحقيق “قفزة عملاقة واحدة” ، قائلة إن عملية النشر التكراري ستسمح لها بالقبض على مشكلات السلامة ودراسة إمكانية إساءة استخدام الذكاء الاصطناعي في كل مرحلة.
من بين العديد من الانتقادات لتكنولوجيا الذكاء الاصطناعى مثل ChatGPT ، يشعر الخبراء بالقلق من أن chatbots ستقدم معلومات غير دقيقة فيما يتعلق بالصحة والسلامة (مثل القضية الشائنة مع ميزة البحث عن الذكاء الاصطناعى من Google والتي أمرت بالأشخاص بتناول الصخور) وأنه يمكن استخدامها للتلاعب السياسي والمعلومات الضريبية والكرس. اجتذب Openai على وجه الخصوص انتقادات لعدم وجود شفافية في كيفية تطوير نماذج الذكاء الاصطناعى لها ، والتي يمكن أن تحتوي على بيانات شخصية حساسة.
يبدو أن إصدار وثيقة Openai هذا الأسبوع هو استجابة لهذه المخاوف ، وتشير الوثيقة إلى أن تطوير نموذج GPT-2 السابق كان “متقطعًا” وأنه لم يتم إصداره في البداية بسبب “المخاوف بشأن التطبيقات الضارة ” ، ولكن الآن ستتحرك الشركة نحو مبدأ التنمية التكرارية بدلاً من ذلك. لكن Brundage يدعي أن المستند يغير السرد وليس تصويرًا دقيقًا لتاريخ تطوير الذكاء الاصطناعي في Openai.
وكتب Brundage على X. “إن إصدار Openai لـ GPT-2 ، الذي شاركت فيه ، كان ثابتًا بنسبة 100 ٪ + فلسفة Openai الحالية للنشر التكراري” ، وقد تم إصدار النموذج بشكل تدريجي ، مع مشاركة الدروس في كل خطوة. شكرنا العديد من خبراء الأمن في ذلك الوقت على هذا الحذر. “
انتقد Brundage أيضًا النهج الواضح للشركة للمخاطر بناءً على هذا الوثيقة ، وكتب أنه “يبدو الأمر كما لو أن هناك عبء إثبات يتم إعداده في هذا القسم حيث تكون المخاوف مثيرة للقلق + تحتاج إلى أدلة ساحقة على مخاطر وشيكة للتصرف عليها – وإلا ، الحفاظ على الشحن. هذه عقلية خطيرة للغاية لأنظمة الذكاء الاصطناعي المتقدمة. “
يأتي هذا في وقت يخضع فيه Openai للتدقيق المتزايد باتهامات بأنها تعطي الأولوية لـ “المنتجات اللامعة” على السلامة.