دعا مركز المرونة طويلة المدى (CLTR) إلى إنشاء نظام شامل للإبلاغ عن الحوادث لمعالجة الفجوة الحرجة في خطط تنظيم الذكاء الاصطناعي بشكل عاجل.
وفقًا لـ CLTR، لدى الذكاء الاصطناعي تاريخ من الفشل بطرق غير متوقعة، حيث سجلت وسائل الإعلام أكثر من 10000 حادثة تتعلق بالسلامة في أنظمة الذكاء الاصطناعي المنتشرة منذ عام 2014. ومع تزايد اندماج الذكاء الاصطناعي في المجتمع، فمن المرجح أن يزداد تواتر هذه الحوادث وتأثيرها. .
ويجادل مركز الأبحاث بأن نظام الإبلاغ عن الحوادث الذي يعمل بشكل جيد أمر ضروري لتنظيم الذكاء الاصطناعي بشكل فعال، مع رسم أوجه التشابه مع الصناعات ذات الأهمية الحيوية للسلامة مثل الطيران والطب. ويحظى هذا الرأي بدعم إجماع واسع من الخبراء، فضلاً عن حكومتي الولايات المتحدة والصين والاتحاد الأوروبي.
ويحدد التقرير ثلاث فوائد رئيسية لتطبيق نظام الإبلاغ عن الحوادث:
- مراقبة مخاطر سلامة الذكاء الاصطناعي في العالم الحقيقي لإبلاغ التعديلات التنظيمية
- تنسيق الاستجابات السريعة للحوادث الكبرى والتحقيق في الأسباب الجذرية
- تحديد الإنذارات المبكرة من الأضرار المستقبلية المحتملة على نطاق واسع
في الوقت الحالي، يفتقر تنظيم الذكاء الاصطناعي في المملكة المتحدة إلى إطار فعال للإبلاغ عن الحوادث. تترك هذه الفجوة وزارة العلوم والابتكار والتكنولوجيا (DSIT) دون رؤية حول العديد من الحوادث الخطيرة، بما في ذلك:
- مشاكل مع نماذج الأساس ذات القدرة العالية
- حوادث من استخدام حكومة المملكة المتحدة للذكاء الاصطناعي في الخدمات العامة
- إساءة استخدام أنظمة الذكاء الاصطناعي لأغراض ضارة
- الأضرار الناجمة عن رفاق الذكاء الاصطناعي والمدرسين والمعالجين
يحذر CLTR من أنه بدون نظام مناسب للإبلاغ عن الحوادث، قد تتعرف DSIT على الأضرار الجديدة من خلال وسائل الإعلام بدلاً من عمليات الإبلاغ المعمول بها.
ولمعالجة هذه الفجوة، يوصي مركز الأبحاث بثلاث خطوات فورية لحكومة المملكة المتحدة:
- نظام الإبلاغ عن الحوادث الحكومية: إنشاء نظام للإبلاغ عن الحوادث باستخدام الذكاء الاصطناعي المستخدم في الخدمات العامة. يمكن أن يكون هذا امتدادًا مباشرًا لمعيار تسجيل الشفافية الخوارزمية (ATRS) ليشمل حوادث الذكاء الاصطناعي في القطاع العام، وتغذية هيئة حكومية وربما مشاركتها مع الجمهور من أجل الشفافية.
- إشراك المنظمين والخبراء: قم بتكليف المنظمين والتشاور مع الخبراء لتحديد الثغرات الأكثر إثارة للقلق، وضمان التغطية الفعالة للحوادث ذات الأولوية وفهم احتياجات أصحاب المصلحة لنظام فعال.
- بناء قدرات DSIT: تطوير قدرة DSIT على مراقبة الحوادث والتحقيق فيها والاستجابة لها، ربما من خلال قاعدة بيانات حوادث الذكاء الاصطناعي التجريبية. وهذا من شأنه أن يشكل جزءًا من الوظيفة المركزية لـ DSIT، مع التركيز في البداية على الثغرات الأكثر إلحاحًا ولكن في النهاية يتوسع ليشمل جميع التقارير الواردة من الهيئات التنظيمية في المملكة المتحدة.
تهدف هذه التوصيات إلى تعزيز قدرة الحكومة على تحسين الخدمات العامة بشكل مسؤول، وضمان التغطية الفعالة للحوادث ذات الأولوية، وتطوير البنية التحتية اللازمة لجمع تقارير حوادث الذكاء الاصطناعي والاستجابة لها.
مع استمرار الذكاء الاصطناعي في التقدم وتغلغله في مختلف جوانب المجتمع، فإن تنفيذ نظام قوي للإبلاغ عن الحوادث يمكن أن يكون أمرًا بالغ الأهمية في تخفيف المخاطر وضمان التطوير والنشر الآمن لتقنيات الذكاء الاصطناعي.
أنظر أيضا: رئيس سوفت بنك: انسى الذكاء الاصطناعي، الذكاء الاصطناعي سيكون هنا خلال 10 سنوات
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. ويقام هذا الحدث الشامل في موقع مشترك مع أحداث رائدة أخرى بما في ذلك مؤتمر الأتمتة الذكية، وBlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابي.
استكشف الأحداث والندوات عبر الإنترنت القادمة الأخرى المتعلقة بتكنولوجيا المؤسسات والمدعومة من TechForge هنا.