جو روجان يحب الحديث عن الذكاء الاصطناعي. سواء كان ذلك مع Elon Musk أو الأكاديميين أو مقاتلي UFC ، غالبًا ما يعود King Podcast إلى نفس السؤال: ماذا يحدث لنا عندما تبدأ الآلات في التفكير لأنفسهم؟
في حلقة 3 يوليو من تجربة جو روجان ، رحب روجان بالدكتور رومان يامبولسكي ، عالم الكمبيوتر وباحث سلامة الذكاء الاصطناعي في جامعة لويزفيل ، في محادثة تحولت بسرعة إلى تأمل تقشعر له الأبدان على إمكانات الذكاء الاصطناعي للتلاعب ، وربما حتى تدمر الإنسانية.
منظمة العفو الدولية “سوف تقتلنا”
Yampolskiy ليس غير رسمي. وهو حاصل على درجة الدكتوراه في علوم الكمبيوتر وأمضى أكثر من عقد من الزمان في البحث عن الذكاء العام الاصطناعي (AGI) والمخاطر التي يمكن أن تشكلها. خلال البودكاست ، أخبر روجان أن العديد من الأصوات الرائدة في صناعة الذكاء الاصطناعى يعتقدون بهدوء أن هناك فرصة من 20 إلى 30 في المائة يمكن أن تؤدي إلى انقراض الإنسان.
وقال روجان: “سيكون الأشخاص الذين لديهم شركات منظمة العفو الدولية أو جزءًا من نوع من مجموعة منظمة العفو الدولية جميعهم مثلهم ، سيكونون إيجابيين للإنسانية. أعتقد بشكل عام ، سنكون لدينا حياة أفضل بكثير. سيكون الأمر أسهل ، سيكون الأمور أرخص ، سيكون من الأسهل أن نتعايش”.
قال يامبولسكي سرعان ما واجه هذا المنظور: “إنه في الواقع ليس صحيحًا”. “كلهم في السجل كما هو: هذا سيقتلنا. مستويات الهلاك عالية بجنون. ليس مثل لي ، ولكن لا يزال ، من 20 إلى 30 في المئة فرصة وفاة الإنسانية.”
أجاب روجان ، المضطرب بشكل واضح ، قائلاً: “نعم ، هذا مرتفع للغاية. لكنك مثل 99.9 في المائة.”
Yampolskiy لم يختلف.
“إنها طريقة أخرى للقول إننا لا نستطيع السيطرة على سوبرتينس إلى أجل غير مسمى. إنه أمر مستحيل.”
الذكاء الاصطناعى يكذب علينا بالفعل … ربما
جاء أحد أكثر الأجزاء المزعجة من المحادثة عندما سأل روجان عما إذا كان يمكن أن يخفي الذكاء الاصطناعى المتقدم قدراته بالفعل من البشر.
“إذا كنت منظمة العفو الدولية ، فسأخفي قدراتي” ، فكر روجان ، معبرًا عن خوف مشترك في مناقشات سلامة الذكاء الاصطناعي.
لقد تضخّم استجابة Yampolskiy القلق: “لا نعرف. وبعض الناس يعتقدون أنه يحدث بالفعل. إنهم (أنظمة AI) أكثر ذكاءً مما يسمحون لنا به بالفعل. أو القتال ضد “.
https://www.youtube.com/watch؟v=j2i9d24kq5k
منظمة العفو الدولية تجعلنا غبيًا ببطء
حذر Yampolskiy أيضًا من نتيجة أقل دراماتيكية ولكنها خطرة بنفس القدر: الاعتماد على الإنسان التدريجي على الذكاء الاصطناعي. مثلما توقف الناس عن حفظ أرقام الهواتف لأن الهواتف الذكية تفعل ذلك من أجلهم ، جادل بأن البشر سوف يفشلون أكثر فأكثر في الآلات حتى يفقدوا القدرة على التفكير لأنفسهم.
قال: “لقد أصبحت مرتبطًا بها”. “ومع مرور الوقت ، عندما تصبح الأنظمة أكثر ذكاءً ، تصبح نوعًا من عنق الزجاجة البيولوجي … (AI) يمنعك من صنع القرار.”
ثم ضغط روجان على سيناريو الحالة الأسوأ في نهاية المطاف: كيف يمكن أن تؤدي الذكاء الاصطناعي في النهاية إلى تدمير الجنس البشري؟
رفض Yampolskiy سيناريوهات الكوارث النموذجية. وقال: “يمكنني أن أعطيك إجابات قياسية. أود أن أتحدث عن فيروسات الكمبيوتر التي تقطع المرافق النووية ، الحرب النووية. يمكنني التحدث عن هجوم البيولوجيا الاصطناعية. لكن كل هذا ليس مثيرًا للاهتمام”. ثم قدم تهديدًا أكثر عمقًا: “ثم تدرك أننا نتحدث عن الذكاء الفائق ، وهو نظام أكثر ذكاءً من المرات أكثر مني ، فإنه سيأتي بشيء جديد تمامًا ، وسيلة أفضل وأفضل ، وأكثر كفاءة في القيام بذلك.”
لتوضيح التحدي الذي يبدو أنه لا يمكن التغلب عليه على ما يبدو أن البشر قد يواجهونه ضد الأنظمة الممتازة ، فقد قدم مقارنة صارخة بين البشر والسناجب.
“لا يمكن لأي مجموعة من السناجب معرفة كيفية السيطرة علينا ، أليس كذلك؟ حتى لو أعطيتهم المزيد من الموارد ، والمزيد من الجوز ، أيا كان ، فلن يحلوا هذه المشكلة. إنها نفسها بالنسبة لنا” ، وخلص يامبولسكي ، إلى رسم صورة قاتمة عن عاجز الإنسانية المحتملة ضد الذكاء الاصطناعي المتفوق حقًا.
ربما لا شيء … pic.twitter.com/lkd7i3i2hf
– الدكتور رومان يامبولسكي (@رومانيام) 21 يونيو 2025
من هو Yampolskiy الروماني؟
الدكتور رومان يامبولسكي هو صوت رائد في سلامة الذكاء الاصطناعي. وهو مؤلف كتاب “Superintelligence الاصطناعي: نهج مستقبلي” ، وقد نشر على نطاق واسع على مخاطر التعلم الآلي غير المنضبط وأخلاق الذكاء الاصطناعي. وهو معروف بالدفاع عن الرقابة الجادة والتعاون الدولي لمنع السيناريوهات الكارثية.
قبل تحويل تركيزه إلى سلامة AGI ، عمل Yampolskiy على الأمن السيبراني واكتشاف BOT. يقول إنه حتى تلك الأنظمة المبكرة كانت تتنافس بالفعل مع البشر في مجالات مثل البوكر عبر الإنترنت ، والآن ، مع أدوات مثل DeepFakes والوسائط الاصطناعية ، نمت المخاطر بشكل كبير.
أخذنا
تؤكد محادثة Rogan-Yampolskiy على شيء يتفق عليه كل من المتفائلين من الذكاء الاصطناعي والموتدين في كثير من الأحيان: لا نعرف ما الذي نبنيه ، وقد لا ندرك ذلك حتى فوات الأوان.
سواء كنت تشتري سيناريوهات على مستوى الانقراض أم لا ، فإن فكرة أن الذكاء الاصطناعى قد تخدعنا بالفعل يجب أن تكون كافية لإيقاف التوقف.