من الطائرات بدون طيار التي تقدم الإمدادات الطبية إلى المساعدين الرقميين الذين يؤدون المهام اليومية ، أصبحت الأنظمة التي تعمل بالطاقة الذكرية مضمنة بشكل متزايد في الحياة اليومية. المبدعون من هذه الابتكارات يعدون فوائد تحويلية. بالنسبة لبعض الأشخاص ، يمكن أن تبدو التطبيقات السائدة مثل ChatGpt و Claude مثل السحر. لكن هذه الأنظمة ليست سحرية ، كما أنها ليست مضمونة – يمكنهم أن يفشلوا بانتظام في العمل على النحو المقصود.
يمكن أن تعطل أنظمة الذكاء الاصطناعى بسبب عيوب التصميم الفني أو بيانات التدريب المتحيزة. يمكن أن يعانون أيضًا من نقاط الضعف في رمزهم ، والتي يمكن استغلالها من قبل المتسللين الضارين. إن عزل سبب فشل الذكاء الاصطناعي أمر ضروري لإصلاح النظام.
لكن أنظمة الذكاء الاصطناعى عادة ما تكون غير شفافة ، حتى لمنشئيها. التحدي هو كيفية التحقيق في أنظمة الذكاء الاصطناعى بعد فشلها أو تقع ضحية للهجوم. هناك تقنيات لفحص أنظمة الذكاء الاصطناعى ، لكنها تتطلب الوصول إلى البيانات الداخلية لنظام الذكاء الاصطناعي. هذا الوصول غير مضمون ، لا سيما للمحققين الجنائيين الذين تم استدعاؤهم لتحديد سبب فشل نظام الذكاء الاصطناعى الملكية ، مما يجعل التحقيق مستحيلًا.
نحن علماء الكمبيوتر الذين يدرسون الطب الشرعي الرقمي. قام فريقنا في معهد جورجيا للتكنولوجيا ببناء نظام ، أو AI Psychiatry ، أو AIP ، يمكنه إعادة إنشاء السيناريو الذي فشل فيه الذكاء الاصطناعي من أجل تحديد الخطأ الذي حدث. يعالج النظام تحديات الطب الشرعي من الذكاء الاصطناعي من خلال استرداد و “إعادة تنشيط” نموذج الذكاء الاصطناعي المشتبه به حتى يمكن اختباره بشكل منهجي.
عدم اليقين من الذكاء الاصطناعي
تخيل أن سيارة ذاتية القيادة تنحرف عن الطريق دون أي سبب يمكن تمييزها بسهولة ثم تحطمها. قد تشير السجلات وبيانات المستشعر إلى أن الكاميرا المعيبة تسببت في إساءة تفسير الذكاء الاصطناعى لعلامة الطريق كقيادة للانحدار. بعد الفشل الناقص في المهمة مثل تحطم السيارة المستقلة ، يحتاج المحققون إلى تحديد بالضبط سبب الخطأ.
هل كان الحادث قد نشأ عن هجوم ضار على الذكاء الاصطناعي؟ في هذه الحالة الافتراضية ، يمكن أن يكون خطأ الكاميرا نتيجة لضعف الأمن أو الأخطاء في برامجها التي تم استغلالها من قبل المتسلل. إذا وجد الباحثون مثل هذا الضعف ، فيجب عليهم تحديد ما إذا كان ذلك تسبب في الحادث. لكن جعل هذا التصميم ليس بالأمر الهين.
على الرغم من وجود طرق جنائية لاستعادة بعض الأدلة من إخفاقات الطائرات بدون طيار ، والمركبات المستقلة وغيرها من الأنظمة الجسدية السيبرانية ، إلا أنه لا يمكن لأحد التقاط القرائن المطلوبة للتحقيق الكامل في الذكاء الاصطناعي في هذا النظام. يمكن لـ ADAL AIS حتى تحديث صنع القرار-وبالتالي القرائن-بشكل مستمر ، مما يجعل من المستحيل التحقيق في أحدث النماذج مع الأساليب الحالية.
https://www.youtube.com/watch؟v=pcfxjfypdge
علم الأمراض لمنظمة العفو الدولية
يطبق الطب النفسي منظمة العفو الدولية سلسلة من خوارزميات الطب الشرعي لعزل البيانات وراء اتخاذ القرارات لنظام الذكاء الاصطناعي. ثم يتم إعادة تجميع هذه القطع في نموذج وظيفي يؤدي بشكل متماثل للنموذج الأصلي. يمكن للمحققين “إعادة” الذكاء الاصطناعي في بيئة خاضعة للرقابة واختبارها بمدخلات ضارة لمعرفة ما إذا كان يظهر سلوكيات ضارة أو مخفية.
يأخذ AI Psychiatry كإدخال صورة للذاكرة ، لقطة من البتات والبايت المحملة عند تشغيل الذكاء الاصطناعي. تحتوي صورة الذاكرة في وقت التحطم في سيناريو السيارة المستقلة على أدلة حاسمة حول الحالة الداخلية وعمليات صنع القرار في الذكاء الاصطناعى التي تتحكم في السيارة. مع AI Psychiatry ، يمكن للمحققين الآن رفع نموذج الذكاء الاصطناعى الدقيق من الذاكرة ، وتشريح أجزاءه وبايت ، وتحميل النموذج إلى بيئة آمنة للاختبار.
قام فريقنا باختبار AI Psychiatry على 30 نموذجًا من الذكاء الاصطناعي ، 24 منها “عكسية” عن قصد لإنتاج نتائج غير صحيحة تحت مشغلات محددة. كان النظام قادرًا بنجاح على استرداد كل نموذج ، بما في ذلك النماذج ، بما في ذلك النماذج الشائعة الاستخدام في سيناريوهات العالم الحقيقي مثل التعرف على علامة الشوارع في المركبات المستقلة.
حتى الآن ، تشير اختباراتنا إلى أن AI Psychiatry يمكن أن يحل بشكل فعال اللغز الرقمي وراء فشل مثل حادث سيارة مستقل كان سيترك في السابق أسئلة أكثر من الإجابات. وإذا لم يجد ذلك ثغرة في نظام AI للسيارة ، فإن الطب النفسي لمنظمة العفو الدولية يسمح للمحققين باستبعاد الذكاء الاصطناعي والبحث عن أسباب أخرى مثل الكاميرا المعيبة.
ليس فقط للمركبات المستقلة
الخوارزمية الرئيسية لـ AI Psychiatry عامة: فهي تركز على المكونات الشاملة التي يجب على جميع نماذج الذكاء الاصطناعي اتخاذ القرارات. هذا يجعل نهجنا قابلاً للتمديد بسهولة إلى أي نماذج منظمة العفو الدولية التي تستخدم أطر تطوير الذكاء الاصطناعى الشهيرة. يمكن لأي شخص يعمل على التحقيق في فشل الذكاء الاصطناعي استخدام نظامنا لتقييم نموذج دون معرفة مسبقة بالهندسة المعمارية الدقيقة.
سواء أكان الذكاء الاصطناعى هو الروبوت الذي يقدم توصيات المنتج أو نظام يرشد أساطيل الطائرات بدون طيار المستقلة ، يمكن للطب النفسي منظمة العفو الدولية استعادة وإعادة إعادة منظمة العفو الدولية للتحليل. AI Psychiatry هو مصدر مفتوح تمامًا لأي محقق لاستخدامه.
يمكن أن تكون الطب النفسي منظمة العفو الدولية بمثابة أداة قيمة لإجراء عمليات التدقيق على أنظمة الذكاء الاصطناعي قبل ظهور المشكلات. مع وجود الوكالات الحكومية من إنفاذ القانون إلى خدمات حماية الطفل التي تدمج أنظمة الذكاء الاصطناعي في سير عملها ، أصبحت عمليات تدقيق الذكاء الاصطناعى شرطًا شائعًا بشكل متزايد على مستوى الولاية. مع أداة مثل AI Psychiatry في متناول اليد ، يمكن للمراجعين تطبيق منهجية الطب الشرعي المتسقة عبر منصات وعمليات النشر المتنوعة.
على المدى الطويل ، سيدفع هذا أرباحًا ذات معنى لمبدعو أنظمة الذكاء الاصطناعى وكل شخص يتأثر بالمهام التي يؤدونها.
ديفيد Oygenblik ، دكتوراه طالب في الهندسة الكهربائية والكمبيوتر ، معهد جورجيا للتكنولوجيا و Brendan Saltaformaggio ، أستاذ مشارك للأمن السيبراني والخصوصية ، وهندسة الكهرباء وهندسة الكمبيوتر ، معهد جورجيا للتكنولوجيا
يتم إعادة نشر هذه المقالة من المحادثة بموجب ترخيص المشاع الإبداعي. اقرأ المقال الأصلي.