أصبح الذكاء الاصطناعي منتشرًا في كل مكان بسرعة عبر أنظمة الأعمال والأنظمة البيئية لتكنولوجيا المعلومات، مع تسارع وتيرة التبني والتطوير بشكل أسرع مما توقعه أي شخص. يبدو اليوم أنه في كل مكان نتجه إليه، يقوم مهندسو البرمجيات ببناء نماذج مخصصة ودمج الذكاء الاصطناعي في منتجاتهم، حيث يقوم قادة الأعمال بدمج الحلول التي تدعم الذكاء الاصطناعي في بيئات عملهم.
ومع ذلك، فإن عدم اليقين بشأن أفضل طريقة لتطبيق الذكاء الاصطناعي يمنع بعض الشركات من اتخاذ الإجراءات اللازمة. كشف أحدث مؤشر للتسارع الرقمي (DAI) الصادر عن مجموعة بوسطن الاستشارية، وهو استطلاع عالمي شمل 2700 مدير تنفيذي، أن 28% فقط يقولون إن مؤسساتهم مستعدة تمامًا لتنظيم الذكاء الاصطناعي الجديد.
وتتفاقم حالة عدم اليقين لديهم بسبب لوائح الذكاء الاصطناعي التي أصبحت كثيفة وسريعة: قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي في الطريق؛ أصدرت الأرجنتين مسودة خطة الذكاء الاصطناعي؛ لدى كندا قانون الذكاء الاصطناعي والبيانات؛ وقد سنت الصين عددا كبيرا من اللوائح التنظيمية الخاصة بالذكاء الاصطناعي؛ وأطلقت دول مجموعة السبع “عملية هيروشيما للذكاء الاصطناعي”. وتكثر المبادئ التوجيهية، مع قيام منظمة التعاون الاقتصادي والتنمية بتطوير مبادئ الذكاء الاصطناعي، واقتراح الأمم المتحدة إنشاء هيئة استشارية جديدة تابعة للأمم المتحدة في مجال الذكاء الاصطناعي، وإطلاق إدارة بايدن مخططا لشرعة حقوق الذكاء الاصطناعي (على الرغم من أن ذلك قد يتغير بسرعة مع إدارة ترامب الثانية).
وتأتي التشريعات أيضًا في الولايات الأمريكية الفردية، وتظهر في العديد من أطر الصناعة. حتى الآن، سنت 21 ولاية قوانين لتنظيم استخدام الذكاء الاصطناعي بطريقة ما، بما في ذلك قانون كولورادو للذكاء الاصطناعي، والبنود الواردة في قانون CCPA في كاليفورنيا، بالإضافة إلى 14 ولاية أخرى لديها تشريعات في انتظار الموافقة.
وفي الوقت نفسه، هناك أصوات عالية على جانبي النقاش حول تنظيم الذكاء الاصطناعي. أظهر استطلاع جديد أجرته شركة SolarWinds أن 88% من متخصصي تكنولوجيا المعلومات يؤيدون تنظيمًا أقوى، ويكشف بحث منفصل أن 91% من الشعب البريطاني يريدون من الحكومة بذل المزيد من الجهد لمساءلة الشركات عن أنظمة الذكاء الاصطناعي الخاصة بها. من ناحية أخرى، كتب قادة أكثر من 50 شركة تكنولوجية مؤخرا رسالة مفتوحة يدعوون فيها إلى إصلاح عاجل للوائح التنظيمية الصارمة الخاصة بالذكاء الاصطناعي في الاتحاد الأوروبي، بحجة أنها تخنق الابتكار.
إنها بالتأكيد فترة صعبة بالنسبة لقادة الأعمال ومطوري البرمجيات، حيث يتدافع المنظمون للحاق بركب التكنولوجيا. بالطبع تريد الاستفادة من المزايا التي يمكن أن يوفرها الذكاء الاصطناعي، ويمكنك القيام بذلك بطريقة تؤهلك للامتثال لأي متطلبات تنظيمية قادمة، ولا تعيق استخدامك للذكاء الاصطناعي دون داع بينما يتقدم منافسوك بسرعة.
ليس لدينا كرة بلورية، لذلك لا يمكننا التنبؤ بالمستقبل. ولكن يمكننا مشاركة بعض أفضل الممارسات لإعداد الأنظمة والإجراءات التي من شأنها أن تمهد الطريق للامتثال التنظيمي للذكاء الاصطناعي.
قم بتخطيط استخدام الذكاء الاصطناعي في نظامك البيئي الأوسع
لا يمكنك إدارة استخدام فريقك للذكاء الاصطناعي إلا إذا كنت على علم بذلك، ولكن هذا وحده يمكن أن يشكل تحديًا كبيرًا. تعد تقنية Shadow IT بالفعل آفة فرق الأمن السيبراني: حيث يقوم الموظفون بالتسجيل للحصول على أدوات SaaS دون معرفة أقسام تكنولوجيا المعلومات، مما يترك عددًا غير معروف من الحلول والمنصات مع إمكانية الوصول إلى بيانات و/أو أنظمة الأعمال.
والآن يتعين على فرق الأمن أيضًا التعامل مع الظل الاصطناعي. تتضمن العديد من التطبيقات وروبوتات الدردشة والأدوات الأخرى الذكاء الاصطناعي أو التعلم الآلي (ML) أو برمجة اللغة الطبيعية (NLP)، دون أن تكون هذه الحلول بالضرورة حلولاً واضحة للذكاء الاصطناعي. عندما يقوم الموظفون بتسجيل الدخول إلى هذه الحلول دون موافقة رسمية، فإنهم يقومون بإدخال الذكاء الاصطناعي إلى أنظمتك دون علمك.
وكما أوضح هنريكي فابريتي مورايس، خبير خصوصية البيانات في Opice Blum، فإن “رسم خرائط الأدوات المستخدمة ــ أو تلك المخصصة للاستخدام ــ أمر بالغ الأهمية لفهم وضبط سياسات الاستخدام المقبول وتدابير التخفيف المحتملة لتقليل المخاطر التي ينطوي عليها استخدامها”.
تحملك بعض اللوائح مسؤولية استخدام الذكاء الاصطناعي من قبل البائعين. للسيطرة الكاملة على الموقف، تحتاج إلى رسم خريطة لجميع أنظمة الذكاء الاصطناعي في بيئاتك وبيئات المنظمات الشريكة لك. وفي هذا الصدد، يمكن أن يكون استخدام أداة مثل Harmonic مفيدًا في اكتشاف استخدام الذكاء الاصطناعي عبر سلسلة التوريد.
التحقق من إدارة البيانات
تعد خصوصية البيانات وأمنها من الاهتمامات الأساسية لجميع لوائح الذكاء الاصطناعي، سواء تلك الموجودة بالفعل أو تلك التي على وشك الموافقة عليها.
يحتاج استخدامك للذكاء الاصطناعي إلى الامتثال بالفعل لقوانين الخصوصية الحالية مثل اللائحة العامة لحماية البيانات (GDPR) وCCPR، والتي تتطلب منك معرفة البيانات التي يمكن للذكاء الاصطناعي الخاص بك الوصول إليها وما يفعله بالبيانات، وإظهار حواجز الحماية لحماية البيانات التي يستخدمها الذكاء الاصطناعي.
لضمان الامتثال، تحتاج إلى وضع قواعد قوية لإدارة البيانات في مؤسستك، ويديرها فريق محدد، وتدعمها عمليات تدقيق منتظمة. يجب أن تتضمن سياساتك العناية الواجبة لتقييم أمان البيانات ومصادر جميع أدواتك، بما في ذلك تلك التي تستخدم الذكاء الاصطناعي، لتحديد مجالات التحيز المحتملة ومخاطر الخصوصية.
وقال روب جونسون، نائب الرئيس والرئيس العالمي لهندسة الحلول في شركة SolarWinds: “يتعين على المؤسسات اتخاذ تدابير استباقية من خلال تعزيز نظافة البيانات وفرض أخلاقيات الذكاء الاصطناعي القوية وتجميع الفرق المناسبة لقيادة هذه الجهود”. “لا يساعد هذا الموقف الاستباقي في الامتثال للوائح المتطورة فحسب، بل يزيد أيضًا من إمكانات الذكاء الاصطناعي.”
إنشاء مراقبة مستمرة لأنظمة الذكاء الاصطناعي لديك
تعد المراقبة الفعالة أمرًا بالغ الأهمية لإدارة أي مجال من مجالات عملك. عندما يتعلق الأمر بالذكاء الاصطناعي، كما هو الحال مع مجالات الأمن السيبراني الأخرى، فإنك تحتاج إلى مراقبة مستمرة للتأكد من أنك تعرف ما تفعله أدوات الذكاء الاصطناعي لديك، وكيف تتصرف، وما هي البيانات التي تصل إليها. تحتاج أيضًا إلى مراجعتها بانتظام لمواكبة استخدام الذكاء الاصطناعي في مؤسستك.
وقال كاش ميريل، مؤسس شركة تطوير البرمجيات Zibtek: “إن فكرة استخدام الذكاء الاصطناعي لمراقبة وتنظيم أنظمة الذكاء الاصطناعي الأخرى هي تطور حاسم في ضمان فعالية هذه الأنظمة وأخلاقيتها”. “في الوقت الحالي، يتم استخدام تقنيات مثل نماذج التعلم الآلي التي تتنبأ بسلوكيات النماذج الأخرى (النماذج الفوقية) لمراقبة الذكاء الاصطناعي. وتقوم الأنظمة بتحليل أنماط ومخرجات الذكاء الاصطناعي التشغيلي للكشف عن الحالات الشاذة أو التحيزات أو حالات الفشل المحتملة قبل أن تصبح حرجة.
تسمح لك منصة أتمتة Cyber GRC Cypago بإجراء المراقبة المستمرة وجمع أدلة التدقيق التنظيمي في الخلفية. تسمح لك الأتمتة بدون تعليمات برمجية بتعيين إمكانات سير العمل المخصصة دون خبرة فنية، لذلك يتم تشغيل التنبيهات وإجراءات التخفيف على الفور وفقًا لعناصر التحكم والحدود التي قمت بإعدادها.
يمكن لـ Cypago الاتصال بمنصاتك الرقمية المختلفة، والمزامنة مع أي إطار تنظيمي تقريبًا، وتحويل كافة عناصر التحكم ذات الصلة إلى سير عمل آلي. بمجرد إعداد عمليات التكامل والأطر التنظيمية، يصبح إنشاء مسارات عمل مخصصة على النظام الأساسي أمرًا بسيطًا مثل تحميل جدول بيانات.
استخدم تقييمات المخاطر كمبادئ توجيهية خاصة بك
من الضروري معرفة أي من أدوات الذكاء الاصطناعي لديك عالية المخاطر ومتوسطة المخاطر ومنخفضة المخاطر – للامتثال للوائح الخارجية وإدارة مخاطر الأعمال الداخلية وتحسين سير عمل تطوير البرامج. ستحتاج حالات الاستخدام عالية الخطورة إلى مزيد من الضمانات والتقييم قبل النشر.
وقالت عائشة جولي، خبيرة سياسات الذكاء الاصطناعي في شركة Holistic AI: “بينما يمكن البدء في إدارة مخاطر الذكاء الاصطناعي في أي مرحلة من مراحل تطوير المشروع”. “إن تنفيذ إطار إدارة المخاطر عاجلاً وليس آجلاً يمكن أن يساعد الشركات على زيادة الثقة والتوسع بثقة.”
عندما تعرف المخاطر التي تشكلها حلول الذكاء الاصطناعي المختلفة، يمكنك اختيار مستوى الوصول الذي ستمنحه للبيانات وأنظمة الأعمال المهمة.
ومن حيث اللوائح، فإن قانون الذكاء الاصطناعي في الاتحاد الأوروبي يميز بالفعل بين أنظمة الذكاء الاصطناعي ذات مستويات المخاطر المختلفة، ويوصي المعهد الوطني للمعايير والتكنولوجيا بتقييم أدوات الذكاء الاصطناعي على أساس الجدارة بالثقة والتأثير الاجتماعي وكيفية تفاعل البشر مع النظام.
وضع حوكمة أخلاقيات الذكاء الاصطناعي بشكل استباقي
لا تحتاج إلى انتظار لوائح الذكاء الاصطناعي لوضع سياسات الذكاء الاصطناعي الأخلاقية. تخصيص المسؤولية عن اعتبارات الذكاء الاصطناعي الأخلاقية، وتشكيل الفرق، ووضع سياسات للاستخدام الأخلاقي للذكاء الاصطناعي والتي تشمل الأمن السيبراني، والتحقق من صحة النماذج، والشفافية، وخصوصية البيانات، والإبلاغ عن الحوادث.
توصي الكثير من أطر العمل الحالية، مثل AI RMF من NIST وISO/IEC 42001، بأفضل ممارسات الذكاء الاصطناعي التي يمكنك دمجها في سياساتك.
“إن تنظيم الذكاء الاصطناعي أمر ضروري ولا مفر منه لضمان الاستخدام الأخلاقي والمسؤول. قال أريك سولومون، الرئيس التنفيذي والمؤسس المشارك لشركة Cypago: “على الرغم من أن هذا قد يؤدي إلى تعقيدات، إلا أنه ليس من الضروري أن يعيق الابتكار”. “من خلال دمج الامتثال في أطرها الداخلية وتطوير السياسات والعمليات المتوافقة مع المبادئ التنظيمية، يمكن للشركات في الصناعات المنظمة الاستمرار في النمو والابتكار بشكل فعال.”
الشركات التي يمكنها إظهار نهج استباقي تجاه الذكاء الاصطناعي الأخلاقي ستكون في وضع أفضل للامتثال. تهدف لوائح الذكاء الاصطناعي إلى ضمان الشفافية وخصوصية البيانات، لذلك إذا كانت أهدافك تتوافق مع هذه المبادئ، فمن المرجح أن يكون لديك سياسات مطبقة تتوافق مع اللوائح المستقبلية. يمكن لمنصة FairNow أن تساعد في هذه العملية، من خلال أدوات لإدارة حوكمة الذكاء الاصطناعي، وفحص التحيز، وتقييمات المخاطر في مكان واحد.
لا تدع الخوف من تنظيم الذكاء الاصطناعي يعيقك
لا تزال لوائح الذكاء الاصطناعي تتطور وتنشأ، مما يخلق حالة من عدم اليقين للشركات والمطورين. لكن لا تدع الوضع المتقلب يمنعك من الاستفادة من الذكاء الاصطناعي. من خلال التنفيذ الاستباقي للسياسات وسير العمل والأدوات التي تتوافق مع مبادئ خصوصية البيانات والشفافية والاستخدام الأخلاقي، يمكنك الاستعداد للوائح الذكاء الاصطناعي والاستفادة من الإمكانيات التي يدعمها الذكاء الاصطناعي.