تحصل الوكالات الفيدرالية على العشرات من خوارزميات الذكاء الاصطناعي الخاصة للمهام التي يمكن أن تؤثر على السلامة الجسدية للأشخاص والحقوق المدنية دون الوصول إلى معلومات مفصلة حول كيفية عمل الأنظمة أو تدريبها، وفقًا للبيانات الصادرة حديثًا.
ليس لدى الجمارك وحماية الحدود وإدارة أمن النقل وثائق حول جودة البيانات المستخدمة لبناء وتقييم الخوارزميات التي تفحص أجساد المسافرين بحثًا عن التهديدات، وفقًا لتقارير مخزون الذكاء الاصطناعي لعام 2024 الصادرة عن الوكالات.
تعمل إدارة صحة المحاربين القدامى على الحصول على خوارزمية من شركة خاصة من المفترض أن تتنبأ بالأمراض المزمنة بين المحاربين القدامى، لكن الوكالة قالت إنه “من غير الواضح كيف حصلت الشركة على البيانات” حول السجلات الطبية للمحاربين القدامى التي استخدمتها لتدريبهم. النموذج.
وبالنسبة لأكثر من 100 خوارزمية يمكن أن تؤثر على سلامة الأشخاص وحقوقهم، لم يكن لدى الوكالة التي تستخدم النماذج إمكانية الوصول إلى كود المصدر الذي يشرح كيفية عملها.
وبينما تستعد إدارة ترامب القادمة لإلغاء القواعد التي تم سنها مؤخرًا بشأن مشتريات الذكاء الاصطناعي الفيدرالي وسلامته، تُظهر بيانات المخزون مدى اعتماد الحكومة بشكل كبير على الشركات الخاصة في أنظمة الذكاء الاصطناعي الأكثر خطورة.
قال فارون ماثور، الذي كان حتى وقت سابق من هذا الشهر مستشارًا كبيرًا للذكاء الاصطناعي في البيت الأبيض ومسؤولًا عن تنسيق الذكاء الاصطناعي: “أنا قلق حقًا بشأن أنظمة الملكية التي تنتزع السلطة الديمقراطية بعيدًا عن الوكالات لإدارة وتقديم الفوائد والخدمات للناس”. عملية الجرد. “علينا أن نعمل جنبًا إلى جنب مع البائعين المملوكين. في كثير من الأحيان يكون ذلك مفيدًا، ولكن في كثير من الأحيان لا نعرف ماذا يفعلون. وإذا لم يكن لدينا سيطرة على بياناتنا، فكيف سنتمكن من إدارة المخاطر؟
وقد وجدت الدراسات الداخلية والتحقيقات الخارجية مشاكل خطيرة في بعض الخوارزميات عالية المخاطر لدى بعض الوكالات الفيدرالية، مثل النموذج المتحيز عنصريًا الذي استخدمته مصلحة الضرائب الأمريكية لتحديد دافعي الضرائب الذين يجب تدقيقهم وخوارزمية منع الانتحار التي أعطت الأولوية للرجال البيض على المجموعات الأخرى.
توفر قوائم الجرد لعام 2024 النظرة الأكثر تفصيلاً حتى الآن حول كيفية استخدام الحكومة الفيدرالية للذكاء الاصطناعي وما تعرفه عن تلك الأنظمة. ولأول مرة منذ بدء عملية الجرد في عام 2022، كان على الوكالات الإجابة على مجموعة من الأسئلة حول ما إذا كان بإمكانهم الوصول إلى الوثائق النموذجية أو كود المصدر وما إذا كانوا قد قاموا بتقييم المخاطر المرتبطة بأنظمة الذكاء الاصطناعي الخاصة بهم.
من بين 1,757 وكالة لأنظمة الذكاء الاصطناعي أبلغت عن استخدامها على مدار العام، تم اعتبار 227 منها من المحتمل أن تؤثر على الحقوق المدنية أو السلامة الجسدية، وأكثر من نصف هذه الأنظمة الأكثر خطورة تم تطويرها بالكامل من قبل البائعين التجاريين. (بالنسبة لـ 60 من الأنظمة عالية المخاطر، لم تقدم الوكالات معلومات حول من قام ببنائها. بعض الوكالات، بما في ذلك وزارة العدل، ووزارة التعليم، ووزارة النقل لم تنشر بعد قوائم جرد الذكاء الاصطناعي الخاصة بها، والجيش والاستخبارات الوكالات غير ملزمة بذلك).
بالنسبة لما لا يقل عن 25 نظامًا يؤثر على السلامة أو الحقوق، أفادت الوكالات أنه “لا توجد وثائق تتعلق بالصيانة أو التكوين أو الجودة أو الاستخدام المقصود لبيانات التدريب والتقييم”. بالنسبة لما لا يقل عن 105 منهم، قالت الوكالات إنها لم تتمكن من الوصول إلى كود المصدر. لم تجب الوكالات على سؤال التوثيق لـ 51 أداة أو سؤال الكود المصدري لـ 60 أداة. لا تزال بعض الأنظمة عالية المخاطر في مرحلة التطوير أو الاستحواذ.
في ظل إدارة بايدن، أصدر مكتب الإدارة والميزانية (OMB) توجيهات جديدة للوكالات تطلب منها إجراء تقييمات شاملة لأنظمة الذكاء الاصطناعي المحفوفة بالمخاطر والتأكد من أن العقود المبرمة مع بائعي الذكاء الاصطناعي تمنح الوصول إلى المعلومات الضرورية حول النماذج، والتي يمكن أن تشمل التدريب. توثيق البيانات أو الكود نفسه.
تعتبر القواعد أكثر قوة من أي شيء من المحتمل أن يواجهه بائعو الذكاء الاصطناعي عند بيع منتجاتهم لشركات أخرى أو لحكومات الولايات والحكومات المحلية (على الرغم من أن العديد من الولايات ستفكر في فواتير سلامة الذكاء الاصطناعي في عام 2025) وقد عارضها بائعو البرامج الحكومية، بحجة وينبغي للوكالات أن تقرر نوع التقييم والشفافية اللازمين على أساس كل حالة على حدة.
وقال بول ليكاس، رئيس السياسة العامة العالمية لجمعية صناعة البرمجيات والمعلومات: “ثق ولكن تحقق”. “نحن حذرون من المتطلبات المرهقة على مطوري الذكاء الاصطناعي. وفي الوقت نفسه، نحن ندرك أنه يجب أن يكون هناك بعض الاهتمام لدرجة الشفافية المطلوبة لتطوير هذا النوع من الثقة التي تحتاجها الحكومة لاستخدام هذه الأدوات.
وقالت غرفة التجارة الأمريكية، في التعليقات المقدمة إلى مكتب الإدارة والميزانية حول القواعد الجديدة، “لا ينبغي للحكومة أن تطلب أي بيانات تدريبية محددة أو مجموعات بيانات حول نماذج الذكاء الاصطناعي التي تحصل عليها الحكومة من البائعين”. وكتبت شركة Palantir، وهي أحد الموردين الرئيسيين للذكاء الاصطناعي، أن الحكومة الفيدرالية يجب أن “تتجنب الإفراط في وصف أدوات التوثيق الصارمة، وبدلاً من ذلك تمنح مقدمي وبائعي خدمات الذكاء الاصطناعي الفسحة اللازمة لتوصيف المخاطر الخاصة بالسياق”.
بدلاً من الوصول إلى بيانات التدريب أو كود المصدر، يقول بائعو الذكاء الاصطناعي إنه في معظم الحالات، يجب أن تشعر الوكالات بالارتياح تجاه بطاقات الأداء النموذجية – المستندات التي تميز البيانات وتقنيات التعلم الآلي التي يستخدمها نموذج الذكاء الاصطناعي ولكنها لا تتضمن التفاصيل الفنية التي تعتبرها الشركات تجارة أسرار.
وصفت كاري ميلر، التي ساعدت في تطوير معايير دولية لشراء الخوارزميات وشاركت في تأسيس مختبر المشتريات للذكاء الاصطناعي غير الربحي، بطاقات الأداء بأنها حل لجماعة ضغط “ليس نقطة بداية سيئة، ولكنها مجرد نقطة انطلاق” لما يقدمه بائعو المنتجات عالية الجودة. يجب أن تكون خوارزميات المخاطر مطلوبة تعاقديًا للكشف عنها.
وقالت: “المشتريات هي إحدى أهم آليات الحوكمة، فهي حيث يلتقي المطاط بالطريق، وهي الباب الأمامي، وهي حيث يمكنك أن تقرر ما إذا كنت ستسمح للأشياء السيئة بالدخول أم لا”. “أنت بحاجة إلى فهم ما إذا كانت البيانات في هذا النموذج ممثلة، هل هي متحيزة أم غير متحيزة؟ ماذا فعلوا بهذه البيانات ومن أين أتت؟ هل جاء كل ذلك من Reddit أو Quora؟ لأنه إذا حدث ذلك، فقد لا يكون هذا هو ما تحتاجه.
كما أشار مكتب الإدارة والميزانية عند طرح قواعد الذكاء الاصطناعي، فإن الحكومة الفيدرالية هي أكبر مشتري منفرد في الاقتصاد الأمريكي، وهي مسؤولة عن أكثر من 100 مليار دولار من مشتريات تكنولوجيا المعلومات في عام 2023. الاتجاه الذي تتخذه في مجال الذكاء الاصطناعي – ما الذي يتطلب من البائعين الكشف عنه وكيف فهو يختبر المنتجات قبل تنفيذها، ومن المرجح أن يضع المعيار لمدى شفافية شركات الذكاء الاصطناعي بشأن منتجاتها عند بيعها لوكالات حكومية أصغر أو حتى لشركات خاصة أخرى.
وقد أشار الرئيس المنتخب ترامب بقوة إلى نيته التراجع عن قواعد مكتب الإدارة والميزانية. لقد قام بحملته على منصة حزبية دعت إلى “إلغاء الأمر التنفيذي الخطير الذي أصدره جو بايدن والذي يعيق ابتكار الذكاء الاصطناعي، ويفرض أفكارًا يسارية راديكالية على تطوير هذه التكنولوجيا”.
وقال ماثور، كبير مستشاري الذكاء الاصطناعي السابق بالبيت الأبيض، إنه يأمل ألا تفي الإدارة القادمة بهذا الوعد وأشار إلى أن ترامب بدأ الجهود لبناء الثقة في أنظمة الذكاء الاصطناعي الفيدرالية بأمره التنفيذي في عام 2020.
وقال ماثور إن مجرد إقناع الوكالات بجرد أنظمة الذكاء الاصطناعي الخاصة بها والإجابة على الأسئلة المتعلقة بأنظمة الملكية التي يستخدمونها كان مهمة ضخمة، وكانت “مفيدة للغاية” ولكنها تتطلب متابعة.
وقال: “إذا لم يكن لدينا الكود أو البيانات أو الخوارزمية، فلن نتمكن من فهم التأثير الذي نحدثه”.