يبدو أن الجميع يدركون حقيقة أن الذكاء الاصطناعي هي تقنية سريعة النمو والناشئة التي لديها احتمال حدوث ضرر هائل إذا تم تشغيله دون ضمانات ، ولكن لا يمكن لأحد (باستثناء الاتحاد الأوروبي ، نوعًا ما) الاتفاق على كيفية تنظيمه. لذا ، بدلاً من محاولة إعداد مسار واضح وضيق لكيفية السماح لنا بالعمل ، اختار الخبراء في هذا المجال نهجًا جديدًا: ماذا عن اكتشاف الأمثلة المتطرفة التي نعتقد جميعًا أنها سيئة والموافقة على ذلك؟
في يوم الاثنين ، انتقلت مجموعة من السياسيين والعلماء والأكاديميين إلى الجمعية العامة للأمم المتحدة للإعلان عن الدعوة العالمية لخطوط الذكاء الاصطناعى ، وهي نداء لحكومات العالم للالتقاء والاتفاق على أوسع من الدرابزين لمنع “مخاطر غير مقبولة عالميًا” والتي قد تنتج عن نشر AI. الهدف من المجموعة هو وضع هذه الخطوط الحمراء في نهاية عام 2026.
جمع الاقتراح أكثر من 200 توقيع حتى الآن من خبراء الصناعة والزعماء السياسيين والفائزين بجائزة نوبل. الرئيس السابق لأيرلندا ، ماري روبنسون ، والرئيس السابق لكولومبيا ، خوان مانويل سانتوس ، على متن الطائرة ، وكذلك الفائزين في نوبل ستيفن فراي ويوفال نوح هاراري. جيفري هينتون ويوشوا بينجيو ، اثنان من الرجال الثلاثة يشار إليهما عادةً باسم “عرابة الذكاء الاصطناعي” بسبب عملهما التأسيسي في الفضاء ، أضافوا أسمائهم إلى القائمة.
الآن ، ما هي تلك الخطوط الحمراء؟ حسنًا ، لا يزال الأمر متروكًا للحكومات لاتخاذ قرار. لا تتضمن المكالمة وصفات أو توصيات سياسية محددة ، على الرغم من أنها تستدعي بعض الأمثلة على ما يمكن أن يكون خطًا أحمر. وتقول المجموعة إن حظر إطلاق الأسلحة النووية أو الاستخدام في جهود المراقبة الجماعية سيكون خطًا أحمر محتملًا لاستخدامات AI ، مع حظر إنشاء الذكاء الاصطناعي الذي لا يمكن إنهاءه بواسطة التجاوز البشري ، سيكون خطًا أحمر محتملًا لسلوك الذكاء الاصطناعي. لكنهم واضحون للغاية: لا تضعها في الحجر ، فهي مجرد أمثلة ، يمكنك وضع قواعدك الخاصة.
الشيء الوحيد الذي تقدمه المجموعة بشكل ملموس هو أنه ينبغي بناء أي اتفاق عالمي على ثلاثة أعمدة: “قائمة واضحة من المحظورات ؛ آليات التحقق القوية القابلة للتدقيق ؛ وتعيين هيئة مستقلة أنشأتها الأطراف للإشراف على التنفيذ.”
التفاصيل ، رغم ذلك ، هي للحكومات توافق عليها. وهذا نوع نوعا ما. توصي المكالمة أن تستضيف البلدان بعض القمم ومجموعات العمل لمعرفة كل شيء ، ولكن هناك بالتأكيد العديد من الدوافع المتنافسة في تلك المحادثات.
الولايات المتحدة ، على سبيل المثال ، التزمت بالفعل بعدم السماح لمنظمة العفو الدولية بالسيطرة على الأسلحة النووية (اتفاقية تم إبرامها بموجب إدارة بايدن ، لذلك يعرف اللورد ما إذا كان ذلك لا يزال قيد اللعب). لكن التقارير الأخيرة أشارت إلى أن أجزاء من مجتمع الاستخبارات التابع لإدارة ترامب قد انزعجت بالفعل من حقيقة أن بعض شركات الذكاء الاصطناعى لن تسمح لهم باستخدام أدواتها لجهود المراقبة المحلية. فهل ستحصل أمريكا على هذا الاقتراح؟ ربما سنكتشف بحلول نهاية عام 2026 … إذا جعلنا ذلك طويلاً.