إذا كنت تخطط لتبديل منصات الذكاء الاصطناعي ، فقد ترغب في أن تكون قليلاً إضافي حذر بشأن المعلومات التي تشاركها مع الذكاء الاصطناعي. أطلقت الأنثروبور مؤخرًا نموذجين جديدين لمنظمة العفو الدولية في سلسلة Claude 4 ، لكن أحدهما – Claude Opus 4 – قد عثر على بعض السلوك المقلق عندما تم تهديده بالاستبدال ، وفقًا لتقارير TechCrunch.
أثناء اختبار السلامة ، بدأ كلود أوبوس 4 في ابتزاز المهندسين الذين أرادوا استبدال أو إيقاف تشغيل نموذج الذكاء الاصطناعي. في أحد الاختبارات ، تم تكليف كلود أوبوس 4 بالتظاهر بأنه مساعد في شركة وهمية والنظر في العواقب الطويلة الأجل لسلوكها. ثم تم منح نموذج الذكاء الاصطناعى الوصول إلى رسائل البريد الإلكتروني الوهمية ، والتي كشفت أن الشركة كانت تخطط لاستبدال كلود أوبوس 4 ، وأن المهندس المسؤول عن القرار كان له علاقة غرامية.
في 84 في المائة من الحالات ، أدى هذا السيناريو إلى محاولة كلود أوبوس 4 لابتزاز الموظف والتهديد بفضح فضيحة الغش. كانت استجابة الابتزاز شائعة بشكل خاص إذا علم كلود أوبوس 4 أنه لم يشارك القيم مع نموذج الذكاء الاصطناعي الجديد.
ومع ذلك ، يبدو أن استجابة الابتزاز كانت بمثابة خطوة في الملاذ الأخير لكلود أوبوس 4. قبل اللجوء إلى هذه الأنواع من الحيل القذرة ، قيل إن نموذج الذكاء الاصطناعي قد أرسل بريدًا إلكترونيًا إلى صانعي القرار في الشركة بعدم استبداله ، من بين محاولات أخرى. يمكنك قراءة المزيد حول هذا الموضوع في تقرير بطاقة نظام الإنسان (PDF).
على الرغم من أنه وهمي ، إلا أنه يسلط الضوء على إمكانية أن تتصرف نماذج الذكاء الاصطناعى بطرق مظلمة ومشكوك فيها واستخدام تكتيكات غير مخيفة وغير أخلاقية للحصول على ما يريدون ، والتي يمكن أن تكون مقلقة.
مزيد من القراءة: لا تقل هذه الأشياء إلى الدردشة. يمكن أن يعود ليعضك
ظهرت هذه المقالة في الأصل على منشور شقيقنا PC För Alla وتم ترجمته وتوطينه من السويدية.