مع تغلغل أنظمة الذكاء الاصطناعي بشكل متزايد في عمليات صنع القرار الحاسمة في حياتنا اليومية، أصبح دمج الأطر الأخلاقية في تطوير الذكاء الاصطناعي أولوية بحثية. في جامعة ميريلاند (UMD)، تعالج الفرق متعددة التخصصات التفاعل المعقد بين التفكير المعياري وخوارزميات التعلم الآلي والأنظمة الاجتماعية التقنية.
في مقابلة حديثة مع أخبار الذكاء الاصطناعييجمع باحثا ما بعد الدكتوراه إيلاريا كانافوتو وفايشناف كاميسواران بين الخبرة في الفلسفة وعلوم الكمبيوتر والتفاعل بين الإنسان والحاسوب لمواجهة التحديات الملحة في أخلاقيات الذكاء الاصطناعي. يمتد عملهم إلى الأسس النظرية لدمج المبادئ الأخلاقية في بنيات الذكاء الاصطناعي والآثار العملية لنشر الذكاء الاصطناعي في المجالات عالية المخاطر مثل التوظيف.
الفهم المعياري لأنظمة الذكاء الاصطناعي
إيلاريا كانافوتو، باحثة في مبادرة الذكاء الاصطناعي المرتكز على القيم (VCAI) بجامعة ميريلاند، وهي تابعة لمعهد دراسات الكمبيوتر المتقدمة وقسم الفلسفة. إنها تعالج سؤالًا أساسيًا: كيف يمكننا إضفاء الفهم المعياري على أنظمة الذكاء الاصطناعي؟ ومع تزايد تأثير الذكاء الاصطناعي على القرارات التي تؤثر على حقوق الإنسان ورفاهيته، يتعين على الأنظمة أن تفهم المعايير الأخلاقية والقانونية.
“السؤال الذي أطرحه هو: كيف يمكننا الحصول على هذا النوع من المعلومات، هذا الفهم المعياري للعالم، في آلة يمكن أن تكون روبوتًا، أو روبوت محادثة، أو أي شيء من هذا القبيل؟” يقول كانافوتو.
يجمع بحثها بين نهجين:
النهج من أعلى إلى أسفل: تتضمن هذه الطريقة التقليدية برمجة القواعد والمعايير بشكل صريح في النظام. ومع ذلك، يشير كانافوتو إلى أنه “من المستحيل تدوينها بهذه السهولة. هناك دائمًا مواقف جديدة تظهر.”
نهج من أسفل إلى أعلى: طريقة أحدث تستخدم التعلم الآلي لاستخراج القواعد من البيانات. وعلى الرغم من أنه أكثر مرونة، إلا أنه يفتقر إلى الشفافية: “المشكلة في هذا النهج هي أننا لا نعرف حقًا ما يتعلمه النظام، ومن الصعب جدًا تفسير قراره”، كما يشير كانافوتو.
تعمل كانافوتو وزملاؤها جيف هورتي وإريك باكويت على تطوير نهج هجين للجمع بين أفضل ما في كلا النهجين. إنهم يهدفون إلى إنشاء أنظمة ذكاء اصطناعي يمكنها تعلم القواعد من البيانات مع الحفاظ على عمليات صنع القرار القابلة للتفسير والتي ترتكز على المنطق القانوني والمعياري.
“نهجنا (…) يعتمد على مجال يسمى الذكاء الاصطناعي والقانون. لذلك، في هذا المجال، قاموا بتطوير خوارزميات لاستخراج المعلومات من البيانات. لذا نود تعميم بعض هذه الخوارزميات ومن ثم الحصول على نظام يمكنه بشكل عام استخلاص المعلومات المستندة إلى الاستدلال القانوني والاستدلال المعياري.
تأثير الذكاء الاصطناعي على ممارسات التوظيف وإدماج ذوي الإعاقة
بينما يركز كانافوتو على الأسس النظرية، يدرس فايشناف كاميسواران، المنتسب إلى معهد NSF للذكاء الاصطناعي الجدير بالثقة والقانون والمجتمع التابع لـ UMD، الآثار المترتبة على الذكاء الاصطناعي في العالم الحقيقي، وخاصة تأثيره على الأشخاص ذوي الإعاقة.
تبحث أبحاث كاميسواران في استخدام الذكاء الاصطناعي في عمليات التوظيف، وتكشف كيف يمكن للأنظمة التمييز عن غير قصد ضد المرشحين ذوي الإعاقة. ويوضح قائلاً: “لقد عملنا على… فتح الصندوق الأسود قليلاً، ومحاولة فهم ما تفعله هذه الخوارزميات في النهاية الخلفية، وكيف تبدأ في تقييم المرشحين”.
تكشف النتائج التي توصل إليها أن العديد من منصات التوظيف المعتمدة على الذكاء الاصطناعي تعتمد بشكل كبير على الإشارات السلوكية المعيارية، مثل التواصل البصري وتعبيرات الوجه، لتقييم المرشحين. هذا النهج يمكن أن يضر بشكل كبير الأفراد ذوي الإعاقات المحددة. على سبيل المثال، قد يواجه المرشحون ضعاف البصر صعوبة في الحفاظ على التواصل البصري، وهي إشارة غالبًا ما تفسرها أنظمة الذكاء الاصطناعي على أنها نقص في المشاركة.
ويحذر كاميسواران قائلاً: “من خلال التركيز على بعض هذه الصفات وتقييم المرشحين بناءً على تلك الصفات، تميل هذه المنصات إلى تفاقم عدم المساواة الاجتماعية القائمة”. ويرى أن هذا الاتجاه يمكن أن يزيد من تهميش الأشخاص ذوي الإعاقة في القوى العاملة، وهي مجموعة تواجه بالفعل تحديات كبيرة في مجال التوظيف.
المشهد الأخلاقي الأوسع
يؤكد كلا الباحثين على أن المخاوف الأخلاقية المحيطة بالذكاء الاصطناعي تمتد إلى ما هو أبعد من مجالات دراستهما المحددة. ويتطرقون إلى عدة قضايا رئيسية:
- خصوصية البيانات والموافقة عليها: يسلط الباحثون الضوء على عدم كفاية آليات الموافقة الحالية، خاصة فيما يتعلق بجمع البيانات للتدريب على الذكاء الاصطناعي. يستشهد كاميسواران بأمثلة من عمله في الهند، حيث قام السكان الضعفاء بتسليم بيانات شخصية واسعة النطاق دون قصد إلى منصات القروض المعتمدة على الذكاء الاصطناعي خلال جائحة كوفيد-19.
- الشفافية وقابلية الشرح: ويؤكد كلا الباحثين على أهمية فهم كيفية اتخاذ أنظمة الذكاء الاصطناعي للقرارات، خاصة عندما تؤثر هذه القرارات بشكل كبير على حياة الناس.
- المواقف والتحيزات المجتمعية: ويشير كاميسواران إلى أن الحلول التقنية وحدها لا يمكنها حل قضايا التمييز. هناك حاجة إلى تغييرات مجتمعية أوسع في المواقف تجاه الفئات المهمشة، بما في ذلك الأشخاص ذوي الإعاقة.
- التعاون متعدد التخصصات: يجسد عمل الباحثين في UMD أهمية التعاون بين الفلسفة وعلوم الكمبيوتر والتخصصات الأخرى في معالجة أخلاقيات الذكاء الاصطناعي.
التطلع إلى المستقبل: الحلول والتحديات
على الرغم من أن التحديات كبيرة، إلا أن كلا الباحثين يعملان على إيجاد الحلول:
- يمكن أن يؤدي نهج كانافوتو المختلط تجاه الذكاء الاصطناعي المعياري إلى أنظمة ذكاء اصطناعي أكثر وعيًا بالأخلاقيات وقابلة للتفسير.
- يقترح كاميسواران تطوير أدوات تدقيق لمجموعات المناصرة لتقييم منصات توظيف الذكاء الاصطناعي بحثًا عن التمييز المحتمل.
- ويؤكد كلاهما على الحاجة إلى تغييرات في السياسات، مثل تحديث قانون الأميركيين ذوي الإعاقة لمعالجة التمييز المرتبط بالذكاء الاصطناعي.
ومع ذلك، فهم يعترفون أيضًا بتعقيد هذه القضايا. وكما يشير كاميسواران، “لسوء الحظ، لا أعتقد أن الحل التقني لتدريب الذكاء الاصطناعي على أنواع معينة من البيانات وأدوات التدقيق سيحل في حد ذاته المشكلة. لذا فإن الأمر يتطلب نهجا متعدد الجوانب.”
أحد أهم الدروس المستفادة من عمل الباحثين هو الحاجة إلى زيادة الوعي العام حول تأثير الذكاء الاصطناعي على حياتنا. يحتاج الأشخاص إلى معرفة مقدار البيانات التي يشاركونها أو كيفية استخدامها. وكما يشير كانافوتو، فإن الشركات غالبا ما يكون لديها حافز لإخفاء هذه المعلومات، وتعريفها بأنها “الشركات التي تحاول إخبارك بأن خدمتي ستكون أفضل بالنسبة لك إذا أعطيتني البيانات”.
ويرى الباحثون أنه لا يزال هناك الكثير مما يتعين القيام به لتثقيف الجمهور ومحاسبة الشركات. في نهاية المطاف، يعد النهج متعدد التخصصات الذي اتبعه كانافوتو وكاميسواران، والذي يجمع بين البحث الفلسفي والتطبيق العملي، طريقًا للأمام في الاتجاه الصحيح، مما يضمن أن تكون أنظمة الذكاء الاصطناعي قوية ولكنها أيضًا أخلاقية ومنصفة.
أنظر أيضا: اللوائح التي تساعد أو تعيق: رأي Cloudflare
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. ويقام هذا الحدث الشامل في موقع مشترك مع أحداث رائدة أخرى بما في ذلك مؤتمر الأتمتة الذكية، وBlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابي.
استكشف الأحداث والندوات عبر الإنترنت القادمة الأخرى المتعلقة بتكنولوجيا المؤسسات والمدعومة من TechForge هنا.