حذر موظفون سابقون وحاليون في شركتي OpenAI و DeepMind التابعة لجوجل من الأخطار المحتملة لتطوير الذكاء الاصطناعي، وشددوا على ضرورة تعزيز حماية المبلغين عن المخالفات، في رسالة مشتركة موجهة إلى الإدارات والهيئات التنظيمية.
ووقع على الرسالة 13 موظفًا من موظفي OpenAI و DeepMind، وهما من الشركات الرائدة في مجال أبحاث الذكاء الاصطناعي.
وأعرب الموظفون في الرسالة عن قلقهم من مجموعة من الأخطار المرتبطة بتطوير الذكاء الاصطناعي، ومنها ترسيخ التفاوتات الاجتماعية والاقتصادية القائمة، ونشر المعلومات المضللة، وفقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة التي قد تؤدي إلى عواقب وخيمة مثل انقراض البشرية، وفقًا لما جاء في الرسالة.
وانتقدت الرسالة شركات الذكاء الاصطناعي التي لديها “دوافع مالية قوية” للمضي قدمًا في عمليات التطوير دون نشر المعلومات التي تخص إجراءات الحماية التي تتخذها، ومستويات الخطر المرتبطة بعمليات التطوير.
وجاء في نص الرسالة: “نعتقد أن الاعتماد على المبادرة الذاتية لهذه الشركات في مشاركة هذه المعلومات أمر غير مجدٍ”.
وحذر الموظفون من الاتفاقيات السرية الصارمة التي تفرضها الشركات على الموظفين، والتي تقيد قدرتهم على التعبير عن مخاوفهم، وأكدوا دور الموظفين الحاليين والسابقين في كشف هذه الأخطار “في ظل غياب رقابة حكومية فعالة على هذه المؤسسات” على حد تعبيرهم.
وتطالب الرسالة شركات الذكاء الاصطناعي بضمان حماية فعالة للموظفين الذين يبلغون عن الأخطار المرتبطة بتطوير الذكاء الاصطناعي، وتجنب فرض اتفاقيات تمنع توجيه الانتقادات البنّاءة، وتوفير آلية موثوقة لإخفاء هوية الموظفين الذين ينقلون مخاوفهم إلى مجلس الإدارة والهيئات التنظيمية والمنظمات المستقلة ذات الصلة مع ضمان حماية الأسرار التجارية.
وطالب الموظفون أيضًا الشركات المعنية بالامتناع عن اتخاذ إجراءات انتقامية بحق الموظفين الذين يكشفون علانية معلومات سرية تتعلق بالأخطار المحيطة بتطوير الذكاء الاصطناعي بعد استنفاد كافة الطرق الأخرى.
تابعنا