يمثل إصدار “المسودة الأولى لقواعد ممارسات الذكاء الاصطناعي للأغراض العامة” الجهود التي يبذلها الاتحاد الأوروبي لإنشاء إرشادات تنظيمية شاملة لنماذج الذكاء الاصطناعي للأغراض العامة.
لقد كان تطوير هذه المسودة بمثابة جهد تعاوني، يتضمن مدخلات من قطاعات متنوعة بما في ذلك الصناعة والأوساط الأكاديمية والمجتمع المدني. تمت قيادة المبادرة من قبل أربع مجموعات عمل متخصصة، تناولت كل منها جوانب محددة من حوكمة الذكاء الاصطناعي وتخفيف المخاطر:
- مجموعة العمل 1: الشفافية والقواعد المتعلقة بحقوق النشر
- مجموعة العمل 2: تحديد المخاطر وتقييم المخاطر النظامية
- مجموعة العمل 3: تخفيف المخاطر الفنية للمخاطر النظامية
- مجموعة العمل 4: تخفيف مخاطر الحوكمة بالنسبة للمخاطر النظامية
وتتوافق المسودة مع القوانين الحالية مثل ميثاق الحقوق الأساسية للاتحاد الأوروبي. وهو يأخذ في الاعتبار النهج الدولي، ويسعى إلى التناسب مع المخاطر، ويهدف إلى أن يكون مقاومًا للمستقبل من خلال التفكير في التغيرات التكنولوجية السريعة.
وتشمل الأهداف الرئيسية المبينة في المسودة ما يلي:
- توضيح أساليب الامتثال لمقدمي نماذج الذكاء الاصطناعي للأغراض العامة
- تسهيل الفهم عبر سلسلة قيمة الذكاء الاصطناعي، وضمان التكامل السلس لنماذج الذكاء الاصطناعي في المنتجات النهائية
- ضمان الامتثال لقانون الاتحاد بشأن حقوق النشر، وخاصة فيما يتعلق باستخدام المواد المحمية بحقوق الطبع والنشر للتدريب النموذجي
- التقييم المستمر وتخفيف المخاطر النظامية المرتبطة بنماذج الذكاء الاصطناعي
التعرف على المخاطر النظامية والتخفيف منها
ومن السمات الأساسية للمسودة تصنيفها للمخاطر النظامية، والذي يتضمن أنواع هذه المخاطر وطبيعتها ومصادرها. وتحدد الوثيقة التهديدات المختلفة مثل الجرائم السيبرانية، والمخاطر البيولوجية، وفقدان السيطرة على نماذج الذكاء الاصطناعي المستقلة، والمعلومات المضللة واسعة النطاق. ومن خلال الاعتراف بالطبيعة المتطورة باستمرار لتكنولوجيا الذكاء الاصطناعي، تعترف المسودة بأن هذا التصنيف سيحتاج إلى تحديثات ليظل ملائمًا.
ومع تزايد شيوع نماذج الذكاء الاصطناعي ذات المخاطر النظامية، تؤكد المسودة على الحاجة إلى أطر قوية للسلامة والأمن. فهو يقترح تسلسلاً هرميًا للتدابير والتدابير الفرعية ومؤشرات الأداء الرئيسية (KPIs) لضمان تحديد المخاطر المناسبة وتحليلها والتخفيف منها طوال دورة حياة النموذج.
تقترح المسودة أن يقوم مقدمو الخدمة بإنشاء عمليات لتحديد الحوادث الخطيرة المرتبطة بنماذج الذكاء الاصطناعي الخاصة بهم والإبلاغ عنها، وتقديم تقييمات وتصحيحات مفصلة حسب الحاجة. كما أنها تشجع التعاون مع الخبراء المستقلين لتقييم المخاطر، وخاصة بالنسبة للنماذج التي تشكل مخاطر نظامية كبيرة.
اتخاذ موقف استباقي تجاه التوجيهات التنظيمية للذكاء الاصطناعي
ينص قانون الاتحاد الأوروبي للذكاء الاصطناعي، الذي دخل حيز التنفيذ في 1 أغسطس 2024، على أن تكون النسخة النهائية من هذه المدونة جاهزة بحلول 1 مايو 2025. وتؤكد هذه المبادرة موقف الاتحاد الأوروبي الاستباقي تجاه تنظيم الذكاء الاصطناعي، مع التركيز على الحاجة إلى سلامة الذكاء الاصطناعي وشفافيته وفعاليته. المساءلة.
ومع استمرار تطور المسودة، تدعو مجموعات العمل أصحاب المصلحة إلى المشاركة بنشاط في تحسين الوثيقة. وستعمل مساهماتهم التعاونية على تشكيل إطار تنظيمي يهدف إلى حماية الابتكار مع حماية المجتمع من المخاطر المحتملة لتكنولوجيا الذكاء الاصطناعي.
ورغم أن مدونة ممارسات الاتحاد الأوروبي لنماذج الذكاء الاصطناعي ذات الأغراض العامة لا تزال في شكل مسودة، فمن الممكن أن تضع معيارًا لتطوير ونشر الذكاء الاصطناعي المسؤول على مستوى العالم. ومن خلال معالجة القضايا الرئيسية مثل الشفافية وإدارة المخاطر والامتثال لحقوق الطبع والنشر، تهدف المدونة إلى إنشاء بيئة تنظيمية تعزز الابتكار وتدعم الحقوق الأساسية وتضمن مستوى عالٍ من حماية المستهلك.
هذه المسودة مفتوحة للتعليقات الكتابية حتى 28 نوفمبر 2024.
أنظر أيضا: الأنثروبيك تحث على تنظيم الذكاء الاصطناعي لتجنب الكوارث
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. ويقام هذا الحدث الشامل في موقع مشترك مع أحداث رائدة أخرى بما في ذلك مؤتمر الأتمتة الذكية، وBlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابي.
استكشف الأحداث والندوات عبر الإنترنت القادمة الأخرى المتعلقة بتكنولوجيا المؤسسات والمدعومة من TechForge هنا.