تقدم شركة OpenAI منحة بقيمة مليون دولار لفريق بحث بجامعة ديوك للنظر في كيفية توقع الذكاء الاصطناعي للأحكام الأخلاقية البشرية.
تسلط المبادرة الضوء على التركيز المتزايد على التقاطع بين التكنولوجيا والأخلاق، وتثير أسئلة حاسمة: هل يستطيع الذكاء الاصطناعي التعامل مع تعقيدات الأخلاق، أم يجب أن تظل القرارات الأخلاقية مجالًا للبشر؟
مختبر المواقف والقرارات الأخلاقية بجامعة ديوك (MADLAB)، بقيادة أستاذ الأخلاق والتر سينوت أرمسترونج والباحثة المشاركة جانا شايش بورغ، هو المسؤول عن مشروع “صنع الذكاء الاصطناعي الأخلاقي”. ويتصور الفريق “نظام تحديد المواقع الأخلاقي”، وهو أداة يمكن أن توجه عملية صنع القرار الأخلاقي.
تشمل أبحاثها مجالات متنوعة، بما في ذلك علوم الكمبيوتر والفلسفة وعلم النفس وعلم الأعصاب، لفهم كيفية تشكيل المواقف والقرارات الأخلاقية وكيف يمكن للذكاء الاصطناعي أن يساهم في هذه العملية.
دور الذكاء الاصطناعي في الأخلاق
يدرس عمل MADLAB كيف يمكن للذكاء الاصطناعي التنبؤ بالأحكام الأخلاقية أو التأثير عليها. تخيل خوارزمية تقيّم المعضلات الأخلاقية، مثل الاختيار بين نتيجتين غير مؤاتيتين في المركبات ذاتية القيادة أو تقديم التوجيه بشأن الممارسات التجارية الأخلاقية. تؤكد مثل هذه السيناريوهات على إمكانات الذكاء الاصطناعي ولكنها تثير أيضًا أسئلة جوهرية: من الذي يحدد الإطار الأخلاقي الذي يوجه هذه الأنواع من الأدوات، وهل ينبغي الثقة في الذكاء الاصطناعي لاتخاذ القرارات ذات العواقب الأخلاقية؟
رؤية OpenAI
تدعم المنحة تطوير الخوارزميات التي تتنبأ بالأحكام الأخلاقية البشرية في مجالات مثل الطب والقانون والأعمال، والتي غالبًا ما تنطوي على مقايضات أخلاقية معقدة. على الرغم من أن الذكاء الاصطناعي واعد، إلا أنه لا يزال يكافح من أجل فهم الفروق العاطفية والثقافية الدقيقة للأخلاق. تتفوق الأنظمة الحالية في التعرف على الأنماط ولكنها تفتقر إلى الفهم الأعمق المطلوب للاستدلال الأخلاقي.
مصدر القلق الآخر هو كيفية تطبيق هذه التكنولوجيا. وفي حين يمكن للذكاء الاصطناعي أن يساعد في اتخاذ القرارات المنقذة للحياة، فإن استخدامه في استراتيجيات الدفاع أو المراقبة يقدم معضلات أخلاقية. هل يمكن تبرير تصرفات الذكاء الاصطناعي غير الأخلاقية إذا كانت تخدم المصالح الوطنية أو تتماشى مع الأهداف المجتمعية؟ تؤكد هذه الأسئلة على الصعوبات التي تواجه دمج الأخلاق في أنظمة الذكاء الاصطناعي.
التحديات والفرص
ويشكل دمج الأخلاقيات في الذكاء الاصطناعي تحديا هائلا يتطلب التعاون عبر التخصصات. الأخلاق ليست عالمية. فهي تتشكل من خلال القيم الثقافية والشخصية والمجتمعية، مما يجعل من الصعب تشفيرها في الخوارزميات. بالإضافة إلى ذلك، بدون ضمانات مثل الشفافية والمساءلة، هناك خطر استمرار التحيزات أو تمكين التطبيقات الضارة.
يمثل استثمار OpenAI في أبحاث Duke خطوة نحو فهم دور الذكاء الاصطناعي في اتخاذ القرارات الأخلاقية. ومع ذلك، فإن الرحلة لم تنته بعد. ويجب على المطورين وصناع السياسات العمل معًا لضمان توافق أدوات الذكاء الاصطناعي مع القيم الاجتماعية، والتأكيد على العدالة والشمولية مع معالجة التحيزات والعواقب غير المقصودة.
وبما أن الذكاء الاصطناعي أصبح أكثر تكاملا في عملية صنع القرار، فإن آثاره الأخلاقية تتطلب الاهتمام. تقدم مشاريع مثل “صناعة الذكاء الاصطناعي الأخلاقي” نقطة انطلاق للتنقل في مشهد معقد، وتحقيق التوازن بين الابتكار والمسؤولية من أجل تشكيل مستقبل حيث تخدم التكنولوجيا الصالح العام.
(الصورة بواسطة أونسبلاش)
أنظر أيضا: حوكمة الذكاء الاصطناعي: تحليل اللوائح العالمية الناشئة
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. ويقام هذا الحدث الشامل في موقع مشترك مع أحداث رائدة أخرى بما في ذلك مؤتمر الأتمتة الذكية، وBlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابي.
استكشف الأحداث والندوات عبر الإنترنت القادمة الأخرى المتعلقة بتكنولوجيا المؤسسات والمدعومة من TechForge هنا.