بعد الإعلان عن أن نموذج اللغة الكبير Claude 3.5 Sonnet الخاص بها تفوق على نماذج رائدة أخرى، بما في ذلك GPT-4o و Llama-400B، أعلنت شركة Anthropic الناشئة في مجال الذكاء الاصطناعي يوم الاثنين أنها تخطط لإطلاق برنامج جديد لتمويل تطوير اختبارات معيارية مستقلة لجهات خارجية لتقييم نماذجها القادمة.
وبحسب منشور على إحدى مدونات الشركة، فإنها على استعداد لدفع المال لمطوري الطرف الثالث لإنشاء معايير يمكنها “قياس القدرات المتقدمة في نماذج الذكاء الاصطناعي بشكل فعال”.
وكتبت أنثروبيك في منشور على مدونتها يوم الاثنين: “إن استثمارنا في هذه التقييمات يهدف إلى الارتقاء بمجال سلامة الذكاء الاصطناعي بالكامل، وتوفير أدوات قيمة تعود بالنفع على النظام البيئي بأكمله. ولا يزال تطوير تقييمات عالية الجودة وذات صلة بالسلامة يشكل تحديًا، والطلب يفوق العرض”.
وتريد الشركة تقديم معايير للمساعدة في قياس “مستوى الأمان” النسبي للذكاء الاصطناعي بناءً على عدد من العوامل، بما في ذلك مدى مقاومته لمحاولات فرض الاستجابات التي قد تشمل الأمن السيبراني؛ والكيميائية والبيولوجية والإشعاعية والنووية (CBRN)؛ وعدم التوافق والتلاعب الاجتماعي ومخاطر الأمن القومي الأخرى. وتبحث أنثروبيك أيضًا عن معايير للمساعدة في تقييم القدرات المتقدمة للنماذج وهي على استعداد لتمويل “تطوير عشرات الآلاف من أسئلة التقييم الجديدة والمهام الشاملة التي من شأنها أن تتحدى حتى طلاب الدراسات العليا”، واختبار قدرة النموذج على تجميع المعرفة من مجموعة متنوعة من المصادر، وقدرته على رفض طلبات المستخدم الخبيثة المصاغة بذكاء، وقدرته على الاستجابة بلغات متعددة.
تبحث شركة Anthropic عن مهام “صعبة بدرجة كافية” وكبيرة الحجم يمكن أن تشمل ما يصل إلى “الآلاف” من المختبرين عبر مجموعة متنوعة من تنسيقات الاختبار التي تساعد الشركة في تقديم معلومات عن جهودها في نمذجة التهديدات “الواقعية والمرتبطة بالسلامة”. نرحب بأي مطورين مهتمين بتقديم مقترحاتهم إلى الشركة، التي تخطط لتقييمها على أساس مستمر.