يمثل الأسبوع المقبل بداية حقبة جديدة للوائح الذكاء الاصطناعى حيث أن الالتزامات الأولى لقانون الاتحاد الأوروبي الذكاء الاصطناعي تسري.
على الرغم من أن متطلبات الامتثال الكاملة لن تدخل حيز التنفيذ حتى منتصف عام 2015 ، فإن المرحلة الأولية من قانون AI في الاتحاد الأوروبي تبدأ في الثاني من فبراير وتتضمن حظرًا كبيرًا على تطبيقات الذكاء الاصطناعي المحددة. يجب على الشركات في جميع أنحاء العالم التي تعمل في الاتحاد الأوروبي الآن التنقل في مشهد تنظيمي مع قواعد صارمة ومخاطر عالية.
تحظر اللوائح الجديدة نشر أو استخدام العديد من أنظمة AI عالية الخطورة. وتشمل هذه تطبيقات مثل التسجيل الاجتماعي ، والتعرف على العاطفة ، والتعرف على القياس الحيوي في الوقت الفعلي في الأماكن العامة ، وغيرها من السيناريوهات التي تعتبر غير مقبولة بموجب القانون.
قد تواجه الشركات الموجودة في انتهاك للقواعد عقوبات تصل إلى 7 ٪ من دورانها السنوي العالمي ، مما يجعل من الضروري أن تفهم المنظمات والامتثال للقيود.
تحديات الامتثال المبكر
يقول ليفنت إيرجين ، كبير الاستراتيجيين للمناخ والاستدامة ومنظمة العفو الدولية في Informatica: “إنه أخيرًا هنا”. “بينما لا نزال في نهج تدريجي ، فإن الاستعدادات التي حصلت عليها الشركات التي تم الحصول عليها بشق الأنفس لقانون AI في الاتحاد الأوروبي ستواجه الآن الاختبار النهائي.”
يبرز Ergin أنه على الرغم من أن معظم متطلبات الامتثال لن تدخل حيز التنفيذ حتى منتصف عام 2015 ، إلا أن المحظورات المبكرة تحدد نغمة حاسمة.
بالنسبة للشركات ، فإن الضغط في عام 2025 ذو شقين. يجب عليهم إظهار عائد استثمار ملموس من استثمارات الذكاء الاصطناعي مع التنقل في التحديات حول جودة البيانات وعدم اليقين التنظيمي. إنها بالفعل العاصفة المثالية ، حيث أبلغت 89 ٪ من الشركات الكبيرة في الاتحاد الأوروبي عن التوقعات المتضاربة لمبادرات الذكاء الاصطناعي. في الوقت نفسه ، يقول 48 ٪ من أن القيود التكنولوجية هي عائق رئيسي أمام نقل طياري الذكاء الاصطناعي إلى الإنتاج “.
يعتقد Ergin أن مفتاح الامتثال والنجاح يكمن في حوكمة البيانات.
“بدون أسس بيانات قوية ، تخاطر المؤسسات بالركود ، مما يحد من قدرتها على فتح إمكانات الذكاء الاصطناعى الكاملة. بعد كل شيء ، لا ضمان حوكمة البيانات القوية مبدأ أساسي أن قانون الاتحاد الأوروبي من الذكاء الاصطناعي مبني؟ “
للتكيف ، يجب على الشركات إعطاء الأولوية لتعزيز نهجها في جودة البيانات.
“إن تعزيز جودة البيانات والحوكمة لم يعد اختياريًا ، فهو أمر بالغ الأهمية. يقول Ergin: “لضمان الامتثال وإثبات قيمة الذكاء الاصطناعى ، يجب على الشركات الاستثمار في التأكد من أن البيانات دقيقة وشاملة ومتكاملة ومحدثة ومحظورة جيدًا”.
“هذا لا يتعلق فقط بتلبية المطالب التنظيمية ؛ يتعلق الأمر بتمكين الذكاء الاصطناعي من تقديم نتائج أعمال حقيقية. نظرًا لأن 82 ٪ من شركات الاتحاد الأوروبي تخطط لزيادة استثماراتها في Genai في عام 2025 ، فإن ضمان أن تكون بياناتها جاهزة من الذكاء الاصطناعي سيكون الفرق بين أولئك الذين ينجحون وأولئك الذين يبقون في كتل البداية. “
قانون الاتحاد الأوروبي منظمة العفو الدولية ليس له حدود
إن النطاق الخارجي للقانون لقانون الاتحاد الأوروبي منظمة العفو الدولية يعني أن المنظمات غير الاتحاد الأوروبي ليست بالتأكيد خارج الخطاف. كما أوضح ماركوس إيفانز ، شريك في نورتون روز فولبرايت ، أن القانون ينطبق على حدود الاتحاد الأوروبي.
يقول إيفانز: “سيكون قانون الذكاء الاصطناعي تطبيقًا عالميًا حقًا”. “هذا لأنه ينطبق ليس فقط على المنظمات في الاتحاد الأوروبي باستخدام الذكاء الاصطناعي أو أولئك الذين يقدمون أو يستوردون أو توزيع الذكاء الاصطناعي على سوق الاتحاد الأوروبي ، ولكن أيضًا توفير الذكاء الاصطناعي واستخدامه حيث يتم استخدام الإخراج في الاتحاد الأوروبي. لذلك ، على سبيل المثال ، ستظل شركة تستخدم منظمة العفو الدولية للتوظيف في الاتحاد الأوروبي – حتى لو كانت مقرها في مكان آخر – قد تم التقاطها بواسطة هذه القواعد الجديدة. ”
ينصح إيفانز للشركات بالبدء في تدقيق استخدام الذكاء الاصطناعي. “في هذه المرحلة ، يجب على الشركات أولاً فهم المكان الذي يتم فيه استخدام الذكاء الاصطناعي في مؤسستها حتى يتمكنوا من تقييم ما إذا كانت أي حالات استخدام قد تؤدي إلى حظر المحظورات. بناءً على هذا المخزون الأولي ، يمكن بعد ذلك تقديم عملية حوكمة أوسع لضمان تقييم استخدام الذكاء الاصطناعي ، ويبقى خارج المحظورات ، وتوافق مع قانون الذكاء الاصطناعي. ”
بينما تعمل المنظمات على مواءمة ممارسات الذكاء الاصطناعي مع اللوائح الجديدة ، تبقى تحديات إضافية. يتطلب الامتثال معالجة التعقيدات القانونية الأخرى مثل حماية البيانات ، والملكية الفكرية (IP) ، ومخاطر التمييز.
يؤكد إيفانز على أن رفع محو الأمية منظمة العفو الدولية داخل المنظمات هو أيضًا خطوة حاسمة.
يقول: “يجب أن تتخذ أي منظمات في نطاق تدابير لضمان أن يكون لدى موظفيها – وأي شخص آخر يتعامل مع تشغيل أنظمة الذكاء الاصطناعى الخاصة بهم واستخدامها نيابة عنهم – مستوى كافٍ من محو الأمية منظمة العفو الدولية”.
“ستلعب محو الأمية منظمة العفو الدولية دورًا حيويًا في الامتثال لقانون الذكاء الاصطناعي ، حيث يجب على أولئك المشاركين في الحكم واستخدام الذكاء الاصطناعي فهم المخاطر التي يديرونها.”
تشجيع الابتكار المسؤول
يتم الترحيب بموجب قانون الاتحاد الأوروبي لمنظمة العفو الدولية باعتباره علامة فارقة لتطوير الذكاء الاصطناعي المسؤول. من خلال حظر الممارسات الضارة وتتطلب الشفافية والمساءلة ، تسعى اللائحة إلى موازنة الابتكار مع الاعتبارات الأخلاقية.
يقول Beatriz Sanz Sáiz ، قائد قطاع AI في EY Global: “هذا الإطار خطوة محورية نحو بناء مستقبل أكثر مسؤولية واستدامة للذكاء الاصطناعي”.
يعتقد Sanz Sáiz أن التشريع يعزز الثقة مع توفير أساس للتقدم التكنولوجي التحويلي.
“إن لديها القدرة على تعزيز المزيد من الثقة والمساءلة والابتكار في تطوير الذكاء الاصطناعي ، وكذلك تعزيز الأسس التي تستمر بناء التكنولوجيا عليها”.
“من الأهمية بمكان أن نركز على القضاء على التحيز وتحديد أولويات الحقوق الأساسية مثل الإنصاف والإنصاف والخصوصية. يعد تطوير AI المسؤول خطوة حاسمة في السعي لزيادة تسريع الابتكار. “
ما الذي يحظر بموجب قانون الاتحاد الأوروبي لمنظمة العفو الدولية؟
لضمان الامتثال ، تحتاج الشركات إلى أن تكون واضحة عن الأنشطة التي تندرج تحت الحظر الصارم لقانون الاتحاد الأوروبي. تتضمن القائمة الحالية للأنشطة المحظورة:
- تقنيات مموهة ومتلاعب ومضللة ضارة
- استغلال ضار من نقاط الضعف
- تسجيل اجتماعي غير مقبول
- تقييم مخاطر الجريمة الفردية والتنبؤ (مع بعض الاستثناءات)
- تجريف غير مستهدف للإنترنت أو مواد CCTV لتطوير أو توسيع قواعد بيانات التعرف على الوجه
- الاعتراف بالعاطفة في مجالات مثل مكان العمل والتعليم (مع بعض الاستثناءات)
- التصنيف الحيوي لاستنتاج الفئات الحساسة (مع بعض الاستثناءات)
- في الوقت الفعلي ، تحديد الهوية البيومترية عن بُعد (RBI) في المساحات التي يمكن الوصول إليها للجمهور لأغراض إنفاذ القانون (مع بعض الاستثناءات)
ستكون التوجيهات القادمة للهيئة التي تندرج فيها “أنظمة الذكاء الاصطناعى” بموجب هذه الفئات أمرًا بالغ الأهمية للشركات التي تسعى إلى ضمان الامتثال وتقليل المخاطر القانونية. بالإضافة إلى ذلك ، يجب أن تتوقع الشركات مزيدًا من التوضيح والموارد على المستويات الوطنية والاتحاد الأوروبي ، مثل ندوة الويب القادمة التي يستضيفها مكتب الذكاء الاصطناعى.
مشهد جديد للوائح الذكاء الاصطناعي
يمثل التنفيذ المبكر لقانون الاتحاد الأوروبي الذكاء الاصطناعي بداية ما هو مسعى تنظيمي معقد وطموح بشكل ملحوظ. مع استمرار منظمة العفو الدولية في لعب دور محوري بشكل متزايد في استراتيجية العمل ، يجب أن تتعلم المؤسسات التنقل في قواعد جديدة والتكيف باستمرار مع التغييرات المستقبلية.
في الوقت الحالي ، يجب أن تركز الشركات على فهم نطاق استخدام الذكاء الاصطناعي ، وتعزيز حوكمة البيانات ، وتعليم الموظفين لبناء محو الأمية منظمة العفو الدولية ، واعتماد نهج استباقي للامتثال. من خلال القيام بذلك ، يمكنهم وضع أنفسهم كقادة في مشهد AI سريع التطور وإل
(تصوير Guillaume Périgois)
انظر أيضا: تهدف حكومة ChatGPT إلى تحديث الوكالات الحكومية الأمريكية
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الكبيرة من قادة الصناعة؟ تحقق من AI و Big Data Expo الذي يقام في أمستردام ، كاليفورنيا ، ولندن. تم تحديد الحدث الشامل مع الأحداث الرائدة الأخرى بما في ذلك مؤتمر الأتمتة الذكي ، و blockx ، وأسبوع التحول الرقمي ، ومعرض Cyber Security & Cloud.
استكشاف أحداث وندوات الويب القادمة الأخرى التي تعمل بها TechForge هنا.