مع استمرار الذكاء الاصطناعي في التقدم بسرعة، أصبحت المخاوف الأخلاقية حول تطوير ونشر هذه الابتكارات المتغيرة للعالم موضع تركيز أكبر.
في مقابلة قبل معرض الذكاء الاصطناعي والبيانات الضخمة بأمريكا الشمالية، تناول إيجور جابلوكوف، الرئيس التنفيذي ومؤسس شركة بريون للذكاء الاصطناعي، هذه القضايا الملحة بشكل مباشر.
التحديات الأخلاقية الحرجة في الذكاء الاصطناعي
“لا يوجد واحد، ربما يكون هناك ما يزيد عن 20 منهم”، قال جابلوكوف عندما سئل عن التحديات الأخلاقية الأكثر أهمية. وقد أوجز سلسلة من المخاطر المحتملة التي يجب التعامل معها بعناية – بدءًا من هلوسة الذكاء الاصطناعي وإطلاق الأكاذيب، إلى انتهاكات خصوصية البيانات وتسريبات الملكية الفكرية من التدريب على معلومات الملكية.
يعتبر التحيز والمحتوى العدائي الذي يتسرب إلى بيانات التدريب مصدر قلق كبير آخر، وفقًا لجابلوكوف. كما أن الثغرات الأمنية مثل العوامل المضمنة وهجمات الحقن السريع تحتل مرتبة عالية في قائمة اهتماماته، بالإضافة إلى الاستهلاك المفرط للطاقة والتأثير المناخي لنماذج اللغات الكبيرة.
يمكن إرجاع أصول بريون إلى أولى حركات الذكاء الاصطناعي الحديث منذ أكثر من عقدين من الزمن. قاد جابلوكوف سابقًا فريقًا متقدمًا للذكاء الاصطناعي في شركة IBM حيث صمموا نسخة بدائية لما أصبح فيما بعد واتسون. “لم يعطوا الضوء الأخضر لذلك. وهكذا، بسبب إحباطي، غادرت، ووقفت مع شركتنا الأخيرة. أصبحت هذه الشركة، التي كانت تسمى أيضًا Pryon في ذلك الوقت، أول استحواذ لشركة أمازون يتعلق بالذكاء الاصطناعي، مما أدى إلى ولادة ما يُعرف الآن باسم Alexa.
يهدف التجسيد الحالي لبريون إلى مواجهة المآزق الأخلاقية للذكاء الاصطناعي من خلال تصميم مسؤول يركز على البنية التحتية الحيوية وحالات الاستخدام عالية المخاطر. وأوضح جابلوكوف: “(أردنا) إنشاء شيء تم تقويته عمدًا من أجل البنية التحتية الأكثر أهمية، والعمال الأساسيين، والمساعي الأكثر جدية”.
أحد العناصر الأساسية هو توفير المرونة للمؤسسات والتحكم في بيئات البيانات الخاصة بها. وقال جابلوكوف: “إننا نمنحهم خيارات فيما يتعلق بكيفية استهلاكهم لمنصاتهم… بدءًا من السحابة العامة متعددة المستأجرين، إلى السحابة الخاصة، وحتى السحابة المحلية”. يتيح ذلك للمؤسسات حماية البيانات الحساسة للغاية خلف جدران الحماية الخاصة بها عند الحاجة.
يؤكد بريون أيضًا على الذكاء الاصطناعي القابل للتفسير والإسناد الذي يمكن التحقق منه لمصادر المعرفة. يقول جابلوكوف: “عندما تكشف منصتنا عن إجابة، يمكنك النقر عليها، وستنتقل دائمًا إلى الصفحة الأساسية وتسلط الضوء بالضبط على المكان الذي تعلمت منه جزءًا من المعلومات”. وهذا يسمح بالتحقق البشري من مصدر المعرفة.
في بعض المجالات مثل الطاقة والتصنيع والرعاية الصحية، نفذت بريون رقابة بشرية قبل أن تذهب التوجيهات الصادرة عن الذكاء الاصطناعي إلى العاملين في الخطوط الأمامية. وأشار جابلوكوف إلى أحد الأمثلة حيث “يمكن للمشرفين التحقق مرة أخرى من النتائج ومنحها شارة الموافقة” قبل أن تصل المعلومات إلى الفنيين.
ضمان تطوير الذكاء الاصطناعي المسؤول
يدعو جابلوكوف بقوة إلى إنشاء أطر تنظيمية جديدة لضمان تطوير ونشر الذكاء الاصطناعي بشكل مسؤول. وبينما رحب بالأمر التنفيذي الأخير الذي أصدره البيت الأبيض كبداية، أعرب عن مخاوفه بشأن المخاطر المحيطة بالذكاء الاصطناعي التوليدي مثل الهلوسة، وبيانات التدريب الثابتة، ونقاط الضعف في تسرب البيانات، ونقص ضوابط الوصول، وقضايا حقوق النشر، والمزيد.
وقد شارك بريون بنشاط في هذه المناقشات التنظيمية. وقال جابلوكوف: “إننا نتواصل مع مجموعة من الوكالات الحكومية”. “نحن نبذل قصارى جهدنا فيما يتعلق بالمساهمة بوجهات نظرنا حول البيئة التنظيمية عند طرحها… نحن نظهر من خلال التعبير عن بعض المخاطر المرتبطة بالاستخدام التوليدي للذكاء الاصطناعي.”
حول احتمال وجود “خطر الذكاء الاصطناعي” الوجودي وغير المنضبط – كما تم التحذير منه من قبل بعض قادة الذكاء الاصطناعي – تحدث جابلوكوف بنبرة متفائلة نسبيًا حول نهج بريون: “لقد عملنا دائمًا نحو الإسناد الذي يمكن التحقق منه… استخلاص المحتوى الخاص بالمؤسسات حتى تفهم من أين تأتي الحلول، ثم يقررون ما إذا كانوا سيتخذون قرارًا باستخدام أو لا تصدق.”
لقد أبعد الرئيس التنفيذي بحزم مهمة بريون عن المجموعة الناشئة من مساعدي الذكاء الاصطناعي للمحادثة المفتوحة، والتي أثار بعضها جدلاً حول الهلوسة وافتقارها إلى القيود الأخلاقية.
“نحن لسنا كلية مهرج. “لقد تم تصميم أغراضنا للذهاب إلى بعض البيئات الأكثر خطورة على كوكب الأرض” ، صرح جابلوكوف بصراحة. “أعتقد أن أحداً منكم لن يشعر بالارتياح عندما ينتهي به الأمر في غرفة الطوارئ ويطلب من الممارسين الطبيين هناك كتابة استفساراتهم في ChatGPT، أو Bing، أو Bard…”
وشدد على أهمية الخبرة في الموضوع والذكاء العاطفي عندما يتعلق الأمر باتخاذ قرارات عالية المخاطر في العالم الحقيقي. “أنت تريد شخصًا يتمتع بسنوات عديدة من الخبرة في علاج أشياء مشابهة للمرض الذي تعاني منه حاليًا. وتخيل ماذا؟ تعجبك حقيقة أن هناك صفة عاطفية يهتمون بها لتحسين حالتك أيضًا.
وفي معرض الذكاء الاصطناعي والبيانات الضخمة القادم، ستكشف بريون عن حالات استخدام مؤسسية جديدة تعرض منصتها عبر صناعات مثل الطاقة وأشباه الموصلات والأدوية والحكومة. أشار جابلوكوف إلى أنهم سيكشفون أيضًا عن “طرق مختلفة لاستهلاك منصة بريون” تتجاوز عرض المؤسسات الشامل، بما في ذلك إمكانية الوصول على مستوى أقل للمطورين.
ومع توسع مجال الذكاء الاصطناعي بسرعة من التطبيقات الضيقة إلى قدرات أكثر عمومية، فإن معالجة المخاطر الأخلاقية ستصبح أكثر أهمية. إن تركيز بريون المستمر على الحوكمة، ومصادر المعرفة التي يمكن التحقق منها، والرقابة البشرية، والتعاون مع الهيئات التنظيمية يمكن أن يوفر نموذجًا لتطوير الذكاء الاصطناعي بشكل أكثر مسؤولية عبر الصناعات.
يمكنك مشاهدة مقابلتنا الكاملة مع إيجور جابلوكوف أدناه:
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. ويقام هذا الحدث الشامل في مكان مشترك مع الأحداث الرائدة الأخرى بما في ذلك BlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابي.
استكشف الأحداث والندوات عبر الإنترنت القادمة الأخرى المتعلقة بتكنولوجيا المؤسسات والمدعومة من TechForge هنا.