أصدر معهد سلامة الذكاء الاصطناعي في بريطانيا مجموعة أدوات مصممة لتعزيز سلامة الذكاء الاصطناعي من خلال تسهيل تطوير تقييمات الذكاء الاصطناعي على الصناعة والمنظمات البحثية والأوساط الأكاديمية.
وتهدف مجموعة الأدوات التي يطلق عليها Inspect إلى تقييم قدرات معينة لنماذج الذكاء الاصطناعي، ويشمل ذلك المعرفة الأساسية للنماذج والقدرة على التفكير، وإنشاء درجة بناءً على النتائج.
وتتوفر مجموعة الأدوات بموجب ترخيص مفتوح المصدر، وتحديدًا ترخيص MIT.
وفي بيان صحفي، ادعى معهد سلامة الذكاء الاصطناعي في بريطانيا أن مجموعة الأدوات Inspect تعد بمنزلة منصة اختبار سلامة الذكاء الاصطناعي الأولى التي تقودها هيئة مدعومة من الدولة للاستخدام على نطاق واسع.
وقال إيان هوغارث، رئيس معهد سلامة الذكاء الاصطناعي في بريطانيا، في بيان: “يعني التعاون الناجح في اختبار سلامة الذكاء الاصطناعي وجود نهج مشترك وسهل الوصول إليه في التقييمات”.
وأضاف: “نأمل رؤية استخدام مجتمع الذكاء الاصطناعي العالمي لمجموعة الأدوات Inspect لتنفيذ اختبارات السلامة النموذجية والمساعدة في التكيف والبناء عبر المنصة المفتوحة المصدر حتى نستطيع إنتاج تقييمات عالية الجودة في جميع المجالات”.
وتتكون Inspect من 3 مكونات أساسية، وهي مجموعات البيانات، والمحللون، والمصححون.
وتوفر مجموعات البيانات عينات لاختبارات التقييم، ويجري المحلولون الاختبارات، ويقيم المصححون عمل الحلول ويجمعون الدرجات من الاختبارات ويحولونها إلى مقاييس.
ويمكن تعزيز مكونات Inspect المضمنة عبر الحزم الخارجية المكتوبة بلغة البرمجة بايثون Python.
وفي منشور عبر إكس، وصفت ديبورا راج، زميلة الأبحاث في موزيلا والمتخصصة في أخلاقيات الذكاء الاصطناعي، Inspect بأنها شهادة على قوة الاستثمار العام في الأدوات المفتوحة المصدر لمساءلة الذكاء الاصطناعي.
وطرح كليمنت ديلانجو، الرئيس التنفيذي للشركة الناشئة للذكاء الاصطناعي Hugging Face، فكرة إدماج Inspect مع مكتبة نماذج Hugging Face أو إنشاء لوحة عامة تتضمن نتائج تقييمات مجموعة الأدوات.
ويأتي إصدار معهد سلامة الذكاء الاصطناعي في بريطانيا لمجموعة الأدوات Inspect بعد أن أطلق المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة NIST GenAI، وهو برنامج لتقييم العديد من تقنيات الذكاء الاصطناعي التوليدي، ويشمل ذلك الذكاء الاصطناعي المولد للنصوص والصور.
ويخطط المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة لإصدار معايير والمساعدة في إنشاء أنظمة للكشف عن صحة المحتوى وتشجيع تطوير البرامج لاكتشاف المعلومات المزيفة أو المضللة المولدة بالذكاء الاصطناعي.