أثار استخدام تقنية الذكاء الاصطناعي التوليدي، وتحديدًا برنامج ChatGPT، من قبل ضباط إنفاذ القانون في الولايات المتحدة جدلاً واسعًا بعد الكشف عن استخدامه في كتابة تقارير رسمية. وقد كشفت وثائق قضائية حديثة عن أن أحد مسؤولي وزارة الأمن الداخلي استخدم البرنامج لإنشاء مسودة تقرير حول استخدام القوة، مما يثير تساؤلات حول دقة وموثوقية هذه التقارير. وتأتي هذه التطورات في وقت يزداد فيه الاعتماد على أدوات الذكاء الاصطناعي في مختلف القطاعات، بما في ذلك الحكومية والقانونية.
تعود تفاصيل القضية إلى حكم أصدرته قاضية فيدرالية الأسبوع الماضي، ينتقد فيه تعامل وزارة الأمن الداخلي مع عمليات دهم استهدفت المهاجرين في شيكاغو. خلال مراجعة الوثائق، عثرت القاضية على إشارة في حاشية إلى أن ضابطًا استخدم ChatGPT لإنشاء تقرير بناءً على ملخص موجز وعدد من الصور. ويشير هذا الكشف إلى ممارسة قد تكون أكثر انتشارًا من المعلن، مما يهدد نزاهة الإجراءات القانونية.
مخاوف بشأن دقة تقارير استخدام القوة و دور الذكاء الاصطناعي
أعربت القاضية سارة إليس عن قلقها البالغ بشأن استخدام ChatGPT في كتابة تقارير استخدام القوة، مشيرة إلى أن ذلك “يقوض مصداقية” هذه التقارير. وقد لاحظت القاضية وجود تناقضات بين لقطات كاميرات الجسم التي يرتديها الضباط والوصف المكتوب للأحداث في التقارير الرسمية.
الذكاء الاصطناعي والبيانات المحدودة
تكمن المشكلة الرئيسية في أن أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT تعتمد على بيانات التدريب التي تلقتها. عندما يتم تزويدها بمعلومات محدودة، فإنها تميل إلى “ملء الفراغات” بافتراضات قد تكون غير دقيقة أو متحيزة. وهذا يعني أن التقارير التي تم إنشاؤها باستخدام هذه الأدوات قد لا تعكس الواقع بشكل كامل.
سياسات وزارة الأمن الداخلي واستخدام الذكاء الاصطناعي
وفقًا لتقارير وكالة أسوشيتد برس، لم تكشف وزارة الأمن الداخلي عن وجود سياسة واضحة بشأن استخدام أدوات الذكاء الاصطناعي التوليدية في إعداد التقارير. على الرغم من أن الوزارة لديها صفحة ويب مخصصة لاستخدام الذكاء الاصطناعي، وأطلقت روبوت محادثة داخليًا لمساعدة الموظفين، إلا أن هذه المبادرات لا تتعلق بشكل مباشر باستخدام أدوات خارجية مثل ChatGPT.
يأتي هذا الكشف في ظل تزايد النقاش حول أخلاقيات استخدام الذكاء الاصطناعي في مجال إنفاذ القانون. فبينما يمكن أن تساعد هذه التقنيات في تحسين الكفاءة وتقليل الأخطاء، إلا أنها تثير أيضًا مخاوف بشأن الشفافية والمساءلة والتحيز المحتمل.
يرى خبراء في هذا المجال أن استخدام الذكاء الاصطناعي لكتابة تقارير رسمية يمثل “سيناريو أسوأ” نظرًا لإمكانية توليد معلومات غير دقيقة أو مضللة. وهذا يمكن أن يؤدي إلى تضليل المحاكم والجمهور، وتقويض الثقة في نظام العدالة الجنائية.
تتزايد المخاوف بشأن استخدام الذكاء الاصطناعي في كتابة المستندات القانونية، بما في ذلك المذكرات والمرافعات. وقد حذرت نقابات المحامين من أن استخدام هذه الأدوات قد يؤدي إلى انتهاكات أخلاقية، مثل الكشف عن معلومات سرية أو تقديم حجج كاذبة.
بالإضافة إلى ذلك، هناك قلق متزايد بشأن إمكانية استخدام الذكاء الاصطناعي لإنشاء أدلة مزيفة، مثل الصور ومقاطع الفيديو. وهذا يمكن أن يجعل من الصعب على المحققين والمدعين العامين تحديد الحقيقة وتقديم الجناة إلى العدالة.
تعتبر هذه القضية بمثابة جرس إنذار لوزارة الأمن الداخلي والوكالات الحكومية الأخرى التي تستخدم الذكاء الاصطناعي. من الضروري وضع سياسات وإجراءات واضحة لضمان استخدام هذه التقنيات بشكل مسؤول وأخلاقي.
من المتوقع أن تراجع وزارة الأمن الداخلي سياساتها المتعلقة باستخدام الذكاء الاصطناعي في ضوء هذا الكشف. قد يشمل ذلك حظر استخدام أدوات الذكاء الاصطناعي التوليدية لكتابة التقارير الرسمية، أو اشتراط مراجعة دقيقة من قبل مشرف بشري قبل تقديم أي تقرير تم إنشاؤه باستخدام هذه الأدوات.
في الوقت الحالي، لا يزال من غير الواضح مدى انتشار استخدام ChatGPT أو أدوات مماثلة من قبل ضباط إنفاذ القانون في الولايات المتحدة. ومع ذلك، فإن هذه القضية تسلط الضوء على الحاجة إلى مزيد من الشفافية والمساءلة في هذا المجال.
سيكون من المهم مراقبة رد فعل وزارة الأمن الداخلي والوكالات الحكومية الأخرى، وكذلك التطورات القانونية في هذه القضية. كما سيكون من الضروري تقييم المخاطر والفوائد المحتملة لاستخدام الذكاء الاصطناعي في مجال إنفاذ القانون، ووضع إطار تنظيمي يضمن حماية الحقوق والحريات المدنية.
