بالنسبة للبنوك التي تسعى إلى تبني الذكاء الاصطناعي بشكل فعلي، غالبًا ما تظهر التحديات الأكثر تعقيدًا قبل حتى البدء في تدريب أي نموذج. هل البيانات المتاحة صالحة للاستخدام؟ وأين يمكن تخزينها بشكل قانوني وآمن؟ ومن يتحمل المسؤولية بمجرد تشغيل النظام؟ هذه الأسئلة، التي تتمحور حول الخصوصية، أصبحت الآن هي المحرك الرئيسي لكيفية بناء ونشر أنظمة الذكاء الاصطناعي في بنك ستاندرد تشارترد، وهي قضايا تزداد أهمية في القطاع المصرفي العالمي.
أهمية الخصوصية في تطوير أنظمة الذكاء الاصطناعي المصرفية
تواجه البنوك العالمية، العاملة في ولايات قضائية متعددة، تعقيدات كبيرة في اتخاذ قرارات مبكرة بشأن الذكاء الاصطناعي. فما يخص قوانين الخصوصية يختلف بشكل كبير من سوق إلى آخر، وقد يخضع نظام الذكاء الاصطناعي نفسه لقيود متباينة اعتمادًا على موقعه الجغرافي. هذا الواقع دفع فرق الخصوصية في بنك ستاندرد تشارترد إلى لعب دور أكثر فاعلية في تشكيل تصميم أنظمة الذكاء الاصطناعي، والموافقة عليها، ومراقبتها بشكل مستمر.
يقول ديفيد هاردون، الرئيس العالمي لتمكين الذكاء الاصطناعي في بنك ستاندرد تشارترد: “لقد أصبحت وظائف خصوصية البيانات نقطة البداية لمعظم لوائح الذكاء الاصطناعي”. وهذا يعني عمليًا أن متطلبات الخصوصية تحدد أنواع البيانات التي يمكن استخدامها في أنظمة الذكاء الاصطناعي، ومستوى الشفافية المطلوب، وآليات المراقبة التي يجب تطبيقها بعد التشغيل.
التحديات العملية في تطبيق الذكاء الاصطناعي على نطاق واسع
بدأ بنك ستاندرد تشارترد بالفعل في تشغيل أنظمة الذكاء الاصطناعي في بيئات حقيقية. التحول من المشاريع التجريبية الصغيرة إلى العمليات الإنتاجية الكاملة يطرح تحديات عملية قد يتم التقليل من شأنها في المراحل الأولية. في التجارب المحدودة، تكون مصادر البيانات قليلة ومفهومة جيدًا. أما في الإنتاج، غالبًا ما تعتمد أنظمة الذكاء الاصطناعي على بيانات مجمعة من منصات متعددة، لكل منها هيكلها الخاص ومشاكلها المتعلقة بالجودة.
يوضح هاردون: “عند الانتقال من الإصدار التجريبي المضمن إلى العمليات المباشرة، يصبح ضمان جودة البيانات أكثر صعوبة مع وجود أنظمة أولية متعددة واختلافات محتملة في المخطط”. تضيف إلى ذلك قوانين الخصوصية التي تفرض قيودًا إضافية، حيث قد لا يسمح باستخدام بيانات العملاء الحقيقية لتدريب النماذج. في هذه الحالات، قد تضطر الفرق إلى الاعتماد على البيانات مجهولة المصدر، مما قد يؤثر على سرعة التطوير أو دقة الأداء. كما أن عمليات النشر على نطاق واسع تزيد من تأثير أي ثغرات في الضوابط الأمنية.
سيادة البيانات والتنظيم الجغرافي وتأثيرها على الذكاء الاصطناعي
لا يقتصر تأثير الخصوصية على نوع البيانات المستخدمة، بل يمتد ليشمل المكان الذي يمكن فيه بناء وتشغيل أنظمة الذكاء الاصطناعي. تختلف قوانين حماية البيانات بشكل كبير بين المناطق المختلفة، حيث تفرض بعض الدول قواعد صارمة بشأن مكان تخزين البيانات ومن له حق الوصول إليها. هذه المتطلبات تؤثر بشكل مباشر على كيفية نشر بنك ستاندرد تشارترد للذكاء الاصطناعي، خاصة الأنظمة التي تعتمد على معلومات العملاء أو البيانات الشخصية.
يقول هاردون: “غالبًا ما تكون سيادة البيانات أحد الاعتبارات الرئيسية عند العمل في أسواق ومناطق مختلفة”. في الأسواق التي لديها قوانين لتوطين البيانات، قد يكون من الضروري نشر أنظمة الذكاء الاصطناعي محليًا، أو تصميمها بحيث لا يتم نقل البيانات الحساسة عبر الحدود. في حالات أخرى، يمكن استخدام المنصات المشتركة، ولكن بشرط وجود ضوابط أمنية صارمة. وهذا يؤدي إلى مزيج من عمليات نشر الذكاء الاصطناعي العالمية والخاصة بالسوق، والتي يتم تحديدها من خلال التنظيم المحلي وليس من خلال تفضيل تقني بحت.
الرقابة البشرية والتوحيد القياسي كركائز أساسية
مع تزايد دور الذكاء الاصطناعي في اتخاذ القرارات، تزداد أهمية معالجة قضايا قابلية التفسير والمساءلة. قد تسرع الأتمتة العمليات، لكنها لا تلغي المسؤولية. يؤكد هاردون: “أصبحت الشفافية وقابلية التفسير أكثر أهمية من ذي قبل”. حتى عند التعامل مع موردين خارجيين، تظل المساءلة داخلية. لذلك، يتم تعزيز الحاجة إلى الإشراف البشري في أنظمة الذكاء الاصطناعي، خاصة عندما تؤثر النتائج على العملاء أو تتطلب الامتثال للوائح.
بالإضافة إلى ذلك، يلعب العنصر البشري دورًا حاسمًا في إدارة مخاطر الخصوصية، وليس فقط في الجانب التكنولوجي. يمكن تصميم العمليات والضوابط بشكل مثالي، ولكن فعاليتها تعتمد على فهم الموظفين للبيانات وكيفية التعامل معها. يضيف هاردون: “يظل الأشخاص هم العامل الأكثر أهمية عندما يتعلق الأمر بتنفيذ ضوابط الخصوصية”. لذلك، يركز بنك ستاندرد تشارترد على التدريب والتوعية لضمان إدراك الفرق لما يمكن وما لا يمكن فعله بالبيانات، وكيفية التعامل معها بشكل صحيح، وأين تكمن الحدود.
التوحيد القياسي لتبسيط تطبيق الخصوصية
لتسهيل تطبيق الخصوصية والحوكمة مع توسيع نطاق الذكاء الاصطناعي، يتبنى البنك استراتيجية التوحيد القياسي. من خلال إنشاء قوالب وبنيات وتصنيفات بيانات معتمدة مسبقًا، يمكن للفرق العمل بشكل أسرع مع الحفاظ على الامتثال. يوضح هاردون أن “التوحيد القياسي وإعادة الاستخدام أمران مهمان”. يساعد وضع قواعد واضحة حول مكان تخزين البيانات والاحتفاظ بها والوصول إليها على تحويل المتطلبات المعقدة إلى مكونات قابلة لإعادة الاستخدام في مشاريع الذكاء الاصطناعي المختلفة.
في الختام، لم تعد الخصوصية مجرد عقبة أمام الامتثال في مجال الذكاء الاصطناعي، بل هي عامل رئيسي يشكل كيفية بناء هذه الأنظمة، ومكان تشغيلها، ومستوى الثقة التي يمكن أن تكتسبها. في القطاع المصرفي، بدأ هذا التحول بالفعل في التأثير على الشكل الذي يبدو عليه الذكاء الاصطناعي في الممارسة العملية، وتحديد حدوده. الاستثمار في الخصوصية ليس مجرد التزام قانوني، بل هو استثمار في مستقبل الذكاء الاصطناعي المستدام والمسؤول.
