نشر أكثر من عشرة موظفين حاليين وسابقين من OpenAI وDeep Mind من Google وAnthropic رسالة مفتوحة يوم الثلاثاء يلفتون الانتباه إلى “المخاطر الجسيمة” التي يفرضها الاستمرار في التطوير السريع للتكنولوجيا دون وجود إطار رقابة فعال.
وترى مجموعة الباحثين أنه يمكن إساءة استخدام التكنولوجيا لتفاقم عدم المساواة القائمة، والتلاعب بالمعلومات ونشر المعلومات المضللة، وحتى “فقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة مما قد يؤدي إلى انقراض الإنسان”.
ويعتقد الموقعون أن هذه المخاطر يمكن “التخفيف منها بشكل مناسب” من خلال الجهود المشتركة للمجتمع العلمي والمشرعين والجمهور، لكنهم يشعرون بالقلق من أن “شركات الذكاء الاصطناعي لديها حوافز مالية قوية لتجنب الرقابة الفعالة” ولا يمكن الاعتماد عليها لإدارة محايدة. تطور التكنولوجيا.
منذ إصدار ChatGPT في نوفمبر 2022، اجتاحت تكنولوجيا الذكاء الاصطناعي التوليدي عالم الحوسبة من خلال أدوات التوسع الفائقة مثل Google Cloud وAmazon AWS وOracle وMicrosoft Azure التي تقود ما يُتوقع أن تصبح صناعة بقيمة تريليون دولار بحلول عام 2032. دراسة حديثة وجدت شركة ماكينزي أنه اعتبارًا من مارس 2024، كان ما يقرب من 75% من المؤسسات التي شملتها الدراسة قد اعتمدت الذكاء الاصطناعي في مجال واحد على الأقل. وفي الوقت نفسه، في استطلاعها السنوي لمؤشر العمل، وجدت مايكروسوفت أن 75% من العاملين في المكاتب يستخدمون بالفعل الذكاء الاصطناعي في العمل.
ومع ذلك، كما قال دانييل كوكوتاجلو، الموظف السابق في OpenAI، لصحيفة واشنطن بوست: “لقد اقتنعوا هم وآخرون بنهج “التحرك بسرعة وكسر الأشياء”، وهذا هو عكس ما هو مطلوب لتكنولوجيا بهذه القوة وهذا الرديء”. مفهومة.” على سبيل المثال، خالفت الشركات الناشئة في مجال الذكاء الاصطناعي، بما في ذلك OpenAI وStable Diffusion، قوانين حقوق الطبع والنشر الأمريكية بشكل متكرر، في حين يتم دفع روبوتات الدردشة المتاحة للجمهور بشكل روتيني إلى تكرار خطاب الكراهية ونظريات المؤامرة بالإضافة إلى نشر المعلومات المضللة.
ويزعم موظفو الذكاء الاصطناعي المعترضون أن هذه الشركات تمتلك “معلومات جوهرية غير عامة” حول قدرات منتجاتها والقيود المفروضة عليها، بما في ذلك المخاطر المحتملة للنماذج المتمثلة في التسبب في الضرر ومدى فعالية حواجز الحماية الخاصة بها في الواقع. ويشيرون إلى أن بعض هذه المعلومات فقط متاح للوكالات الحكومية من خلال “التزامات ضعيفة بالمشاركة ولا يتوفر أي منها لعامة الناس”.
وذكرت المجموعة أنه “طالما لا توجد رقابة حكومية فعالة على هذه الشركات، فإن الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلتهم أمام الجمهور”، بحجة أن الاستخدام الواسع النطاق لاتفاقيات السرية وضعف تنفيذ هذه الشركات. إن الحماية الحالية للمبلغين عن المخالفات تعيق هذه القضايا.
ودعت المجموعة شركات الذكاء الاصطناعي إلى التوقف عن إبرام اتفاقيات عدم الاستخفاف وإنفاذها، وإنشاء عملية مجهولة للموظفين لمعالجة مخاوفهم مع مجلس إدارة الشركة والجهات التنظيمية الحكومية، وعدم الانتقام من المبلغين عن المخالفات العامة إذا ثبت أن هذه العمليات الداخلية غير كافية. .