ومن الممكن أن يؤدي الجمع بين الذكاء الاصطناعي وصنع السياسات في بعض الأحيان إلى تداعيات غير متوقعة، كما رأينا مؤخرا في ألاسكا.
وفي تحول غير عادي للأحداث، ورد أن المشرعين في ألاسكا استخدموا الاستشهادات التي أنشأها الذكاء الاصطناعي والتي كانت غير دقيقة لتبرير السياسة المقترحة لحظر الهواتف المحمولة في المدارس. كما ذكرت /The Alaska Beacon/، قدمت إدارة التعليم والتنمية المبكرة في ألاسكا (DEED) مسودة سياسة تحتوي على إشارات إلى الدراسات الأكاديمية التي لم تكن موجودة ببساطة.
نشأ الموقف عندما استخدمت مفوضة التعليم في ألاسكا، دينا بيشوب، الذكاء الاصطناعي التوليدي لصياغة سياسة الهاتف المحمول. وتضمنت الوثيقة التي أصدرها الذكاء الاصطناعي مراجع علمية مفترضة لم يتم التحقق منها أو دقتها، إلا أن الوثيقة لم تكشف عن استخدام الذكاء الاصطناعي في إعدادها. وصل بعض المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي إلى مجلس ولاية ألاسكا للتعليم والتنمية المبكرة قبل أن تتم مراجعته، مما قد يؤثر على مناقشات المجلس.
ادعت المفوضة بيشوب لاحقًا أن الذكاء الاصطناعي تم استخدامه فقط “لإنشاء الاستشهادات” للمسودة الأولية وأكدت أنها صححت الأخطاء قبل الاجتماع عن طريق إرسال الاستشهادات المحدثة إلى أعضاء مجلس الإدارة. ومع ذلك، فإن “هلوسة” الذكاء الاصطناعي – وهي معلومات ملفقة تم إنشاؤها عندما يحاول الذكاء الاصطناعي إنشاء محتوى معقول ولكن لم يتم التحقق منه – كانت لا تزال موجودة في الوثيقة النهائية التي تم التصويت عليها من قبل مجلس الإدارة.
القرار النهائي، المنشور على موقع DEED، يوجه الإدارة إلى وضع سياسة نموذجية لقيود الهواتف المحمولة في المدارس. لسوء الحظ، تضمنت الوثيقة ستة استشهادات، يبدو أن أربعة منها من مجلات علمية محترمة. ومع ذلك، كانت المراجع مختلقة بالكامل، مع عناوين URL تؤدي إلى محتوى غير ذي صلة. وتُظهر هذه الحادثة مخاطر استخدام البيانات التي يولدها الذكاء الاصطناعي دون التحقق البشري المناسب، خاصة عند اتخاذ القرارات السياسية.
وحالة ألاسكا ليست فريدة من نوعها. أصبحت هلوسة الذكاء الاصطناعي شائعة بشكل متزايد في مجموعة متنوعة من القطاعات المهنية. على سبيل المثال، واجه بعض المهنيين القانونيين عواقب استخدام الاستشهادات الوهمية للقضايا التي أنشأها الذكاء الاصطناعي في المحكمة. وبالمثل، تضمنت الأبحاث الأكاديمية التي تم إنشاؤها باستخدام الذكاء الاصطناعي بيانات مشوهة ومصادر مزيفة، مما يثير مخاوف جدية بشأن المصداقية. عندما تُترك دون رادع، فإن خوارزميات الذكاء الاصطناعي التوليدية، والتي تهدف إلى إنتاج محتوى يعتمد على الأنماط بدلاً من الدقة الواقعية، يمكن أن تنتج بسهولة استشهادات مضللة.
وينطوي الاعتماد على البيانات التي يولدها الذكاء الاصطناعي في صنع السياسات، وخاصة في مجال التعليم، على مخاطر كبيرة. عندما يتم تطوير السياسات بناءً على معلومات ملفقة، فإنها قد تؤدي إلى سوء تخصيص الموارد وربما تضر الطلاب. على سبيل المثال، قد تؤدي سياسة تقييد استخدام الهاتف المحمول بناءً على بيانات ملفقة إلى صرف الانتباه عن التدخلات الأكثر فعالية والقائمة على الأدلة والتي يمكن أن تفيد الطلاب حقًا.
علاوة على ذلك، فإن استخدام بيانات الذكاء الاصطناعي التي لم يتم التحقق منها يمكن أن يؤدي إلى تآكل ثقة الجمهور في كل من عملية صنع السياسات وتكنولوجيا الذكاء الاصطناعي نفسها. وتؤكد مثل هذه الحوادث أهمية التحقق من الحقائق والشفافية والحذر عند استخدام الذكاء الاصطناعي في مجالات صنع القرار الحساسة، وخاصة في التعليم، حيث يمكن أن يكون التأثير على الطلاب عميقا.
حاول المسؤولون في ألاسكا التقليل من أهمية الموقف، مشيرين إلى الاستشهادات الملفقة على أنها “عناصر نائبة” مخصصة لتصحيحها لاحقًا. ومع ذلك، لا تزال الوثيقة التي تحتوي على “العناصر النائبة” معروضة على مجلس الإدارة وتستخدم كأساس للتصويت، مما يؤكد الحاجة إلى رقابة صارمة عند استخدام الذكاء الاصطناعي.
(تصوير هارتونو كريتيف ستوديو)
أنظر أيضا: الأنثروبيك تحث على تنظيم الذكاء الاصطناعي لتجنب الكوارث
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. ويقام هذا الحدث الشامل في موقع مشترك مع أحداث رائدة أخرى بما في ذلك مؤتمر الأتمتة الذكية، وBlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابي.
استكشف الأحداث والندوات عبر الإنترنت القادمة الأخرى المتعلقة بتكنولوجيا المؤسسات والمدعومة من TechForge هنا.