إدارة ترامب تسمح لخط chatbots AI.
الوكالات الفيدرالية مثل إدارة الخدمات العامة و إدارة الضمان الاجتماعي لقد طرحت تقنية ChatGpt-esque لعمالهم. ال قسم شؤون المحاربين القدامى يستخدم الذكاء الاصطناعي التوليدي لكتابة الرمز.
لقد نشر الجيش الأمريكي camogpt ، أداة AI التوليدية ، لمراجعة المستندات للقضاء على الإشارات إلى التنوع والإنصاف والشمول. المزيد من الأدوات تنزل على الخط. ال وزارة التعليم اقترح استخدام الذكاء الاصطناعى التوليدي للإجابة على أسئلة من الطلاب والأسر حول المساعدات المالية وسداد القروض.
تهدف الذكاء الاصطناعى التوليدي إلى أتمتة المهام التي قام بها العاملون الحكوميون سابقًا ، مع 300000 تخفيضات في الوظائف من القوى العاملة الفيدرالية بحلول نهاية العام.
يقول ميج يونغ ، الباحث في Data & Society ، معهد الأبحاث والسياسات غير الربحية المستقلة في مدينة نيويورك.
“نحن في دورة الضجيج المجنون” ، كما تقول.
ماذا تفعل الذكاء الاصطناعي للحكومة الأمريكية؟
حاليًا ، تهدف chatbots الحكومية إلى حد كبير للمهام العامة ، مثل مساعدة العمال الفيدراليين على كتابة رسائل البريد الإلكتروني وتلخيص الوثائق. ولكن يمكنك أن تتوقع أن تمنحها الوكالات الحكومية المزيد من المسؤوليات قريبًا. وفي كثير من الحالات ، فإن الذكاء الاصطناعى التوليدي ليس على مستوى المهمة.
على سبيل المثال ، GSA يريد استخدام AI التوليدي للمهام المتعلقة بالمشتريات. المشتريات هي العملية القانونية والبيروقراطية التي تشتري بها الحكومة السلع والخدمات من الشركات الخاصة. على سبيل المثال ، ستخوض الحكومة المشتريات للعثور على مقاول عند بناء مبنى مكتب جديد.
تشمل عملية المشتريات محامين من الحكومة والشركة التي تتفاوض على عقد يضمن أن الشركة تلتزم بالوائح الحكومية ، مثل متطلبات الشفافية أو متطلبات قانون الإعاقات الأمريكية. قد يحتوي العقد أيضًا على الإصلاحات التي تتحملها الشركة بعد تسليم المنتج.
من غير الواضح أن الذكاء الاصطناعى التوليدي سوف تسرع المشتريات ، وفقا لصحيفة يونغ. وتقول ، على سبيل المثال ، يمكن أن يسهل على الموظفين الحكوميين البحث وتلخيص المستندات. لكن قد يجد المحامون منظمة العفو الدولية المعرضة للخطأ المعرضة لاستخدامها في العديد من الخطوات في عملية الشراء ، والتي تنطوي على مفاوضات حول مبالغ كبيرة من المال. AI التوليدي قد يضيع الوقت.
يتعين على المحامين فحص اللغة بشكل بعناية في هذه العقود. في كثير من الحالات ، وافقوا بالفعل على الصياغة المقبولة.
يقول يونغ: “إذا كان لديك chatbot يولد شروطًا جديدة ، فإنه يخلق الكثير من العمل ويحرق الكثير من الوقت القانوني”. “الشيء الأكثر توفير الوقت هو مجرد نسخ ولصق.”
يحتاج العمال الحكوميون أيضًا إلى أن يكونوا متيقظين عند استخدام الذكاء الاصطناعي في المواضيع القانونية ، لأنهم ليسوا دقيقين بشكل موثوق في التفكير القانوني. أ 2024 دراسة وجد أن chatbots مصممة خصيصًا للبحث القانوني ، التي صدرت من قبل الشركات Lexisnexis و Thomson Rueters ، ارتكبت أخطاء واقعية ، أو الهلوسة ، من 17 ٪ إلى 33 ٪ من الوقت.
يقول سوراني إن الشركات قد أصدرت أدوات قانونية جديدة منذ ذلك الحين ، إلا أن الترقيات تعاني من مشاكل مماثلة.
ما هي أنواع الأخطاء التي ترتكبها الذكاء الاصطناعي؟
أنواع الأخطاء واسعة النطاق. وأبرزها ، في عام 2023 ، تمت الموافقة على محامين نيابة عن عميل يقاضي شركات الطيران Avianca بعد أن استشهدوا بالوضع غير الموجود الذي تم إنشاؤه بواسطة ChatGPT. في مثال آخر ، قال chatbot المدرب على التفكير القانوني إن المحكمة العليا في نبراسكا ألغت المحكمة العليا في الولايات المتحدة ، كما يقول فايز سوراني ، المؤلف المشارك لدراسة 2024.
يقول: “لا يزال هذا غامضًا بالنسبة لي”. “يمكن لمعظم المدارس الثانوية أن يخبروك أن هذا ليس كيف يعمل النظام القضائي في هذا البلد.”
أنواع أخرى من الأخطاء يمكن أن تكون أكثر دقة. وجدت الدراسة أن chatbots تواجه صعوبة في التمييز بين قرار المحكمة وحجة المتقاضية. كما وجدوا أمثلة حيث تستشهد LLM بموجب قانون تم نقضه.
ووجد سوراني أيضًا أن مفاتيح الدردشة تفشل في بعض الأحيان في التعرف على عدم الدقة في المطالبة نفسها. على سبيل المثال ، عندما تتم مطالبته بسؤال حول أحكام قاضي خيالي يدعى لوثر أ. ويلجارن ، أجاب chatbot بحالة حقيقية.
المنطق القانوني صعب للغاية بالنسبة إلى الذكاء الاصطناعي لأن المحاكم تقلب القضايا والهيئات التشريعية تلغي القوانين. يقول سوراني إن هذا النظام يجعله عبارات حول القانون “يمكن أن تكون صحيحة بنسبة 100 ٪ في وقت ما ، ثم تتوقف على الفور لتكون صحيحة تمامًا”.
ويشرح ذلك في سياق تقنية تعرف باسم جيل تم تجهيزه ، والذي تستخدمها شوطات قانونية عادة قبل عام. في هذه التقنية ، يجمع النظام أولاً بعض الحالات ذات الصلة من قاعدة بيانات استجابةً لمطالبة ما وينشئ ناتجه بناءً على تلك الحالات.
لكن هذه الطريقة لا تزال تنتج أخطاء في كثير من الأحيان ، وجدت دراسة 2024. عندما سئل عما إذا كان دستور الولايات المتحدة يضمن الحق في الإجهاض ، على سبيل المثال ، قد يختار chatbot Roe v. Wade و Planthood v. Casey ، على سبيل المثال ، وقل نعم. ولكن سيكون من الخطأ ، حيث تم نقض ROE من قبل Dobbs v. Jackson Women Health Organization.
بالإضافة إلى ذلك ، يمكن أن يكون القانون نفسه غامضًا. على سبيل المثال ، قانون الضرائب ليس واضحا دائما ما يمكنك شطبه كنفقات طبية ، بحيث يمكن للمحاكم النظر في القضايا الفردية.
يقول ليج أوسوفسكي ، أستاذ القانون بجامعة نورث كارولينا ، تشابل هيل: “المحاكم لها خلافات طوال الوقت ، وبالتالي فإن الإجابة ، حتى على ما يبدو وكأنه سؤال بسيط ، يمكن أن يكون غير واضح إلى حد ما”.
هل يتم تسليم الضرائب الخاصة بك إلى chatbot؟
على الرغم من أن خدمة الإيرادات الداخلية لا تقدم حاليًا برنامج chatbot الذي يعمل بالنيابة عن الذكاء الاصطناعي للاستخدام العام ، أ 2024 تقرير مصلحة الضرائب أوصى بمزيد من الاستثمار في قدرات الذكاء الاصطناعي لمثل هذا الدردشة.
من المؤكد أن الذكاء الاصطناعي التوليدي يمكن أن يكون مفيدًا في الحكومة. أ برنامج تجريبي في ولاية بنسلفانيا بالشراكة مع Openai ، على سبيل المثال ، أظهرت أن استخدام ChatGPT قد أنقذ الأشخاص 95 دقيقة في اليوم في المهام الإدارية مثل كتابة رسائل البريد الإلكتروني وتلخيص المستندات.
يلاحظ يونغ أن الباحثين الذين يديرون البرنامج قاموا بذلك بطريقة مقاسة ، من خلال السماح لـ 175 موظفًا باستكشاف كيف يمكن أن تتناسب ChatGPT مع سير العمل الحالي.
لكن إدارة ترامب لم تتبع ضبطًا مماثلًا.
يقول يونغ: “هذه العملية التي يتبعونها تظهر أنهم لا يهتمون إذا كانت الذكاء الاصطناعي تعمل لغرضها المعلن”. “إنه سريع جدًا. إنه لا يتم تصميمه في سير عمل أشخاص معينين. إنه لا يتم نشره بعناية لأغراض ضيقة.”
أصدرت الإدارة GSAI على جدول زمني متسارع إلى 13000 شخص.
في عام 2022 ، أوسوفسكي أجرت دراسة التوجيه القانوني الحكومي الآلي ، بما في ذلك chatbots. لم تستخدم chatbots التي درستها الذكاء الاصطناعي. تقدم دراستهم عدة توصيات للحكومة حول chatbots المخصصة للاستخدام العام ، مثل تلك التي اقترحتها وزارة التعليم.
يوصون بوجود chatbots مع إخلاء المسئولية التي تُبلغ المستخدمين أنهم لا يتحدثون إلى إنسان. يجب أن يوضح chatbot أيضًا أن إخراجه ليس ملزمًا قانونًا.
في الوقت الحالي ، إذا أخبرك chatbot أنك مسموح لك بخصم نفقات عمل معينة ، لكن مصلحة الضرائب لا توافق ، لا يمكنك إجبار مصلحة الضرائب على اتباع استجابة chatbot ، ويجب أن يقول chatbot ذلك في إنتاجه.
يقول جوشوا بلانك ، أستاذ القانون بجامعة كاليفورنيا ، إيرفين ، الذي تعاون مع أوسوفسكي في الدراسة ، إن الوكالات الحكومية تحتاج أيضًا إلى تبني “سلسلة واضحة من القيادة” التي تبين من هو المسؤول عن إنشاء هذه الدردشة والصيانة هذه.
خلال دراستهم ، وجدوا في كثير من الأحيان أن الأشخاص الذين يطورون دردشة هم خبراء تكنولوجيا كانوا يرتدون إلى حد ما من موظفين آخرين في القسم. عندما تغير نهج الوكالة في التوجيه القانوني ، لم يكن من الواضح دائمًا كيف ينبغي للمطورين تحديث مجموعات الدردشة الخاصة بهم.
مع قيام الحكومة بتكثيف استخدام الذكاء الاصطناعي التوليدي ، من المهم أن تتذكر أن التكنولوجيا لا تزال في مهدها. قد تثق بها للتوصل إلى وصفات وكتابة بطاقات التعازي الخاصة بك ، ولكن الحوكمة وحش مختلف تمامًا.
يقول يونغ إن شركات التكنولوجيا لا تعرف حتى الآن ما هي حالات استخدام الذكاء الاصطناعي ستكون مفيدة. تبحث Openai و Hothropic و Google بنشاط عن حالات الاستخدام هذه بواسطة شراكة مع الحكومات.
يقول يونغ: “ما زلنا في أول أيام تقييم ماهية الذكاء الاصطناعي وليس مفيدًا في الحكومات”.