لمدة 16 ساعة هذا الأسبوع ، توقف Grok من AI chatbot من Elon Musk عن العمل كما هو مقصود وبدأ يبدو وكأنه شيء آخر تمامًا.
في سلسلة من لقطات الشاشة ، بدأت Grok في تحطيم نقاط الحوار المتطرفة ، مرددًا خطاب الكراهية ، وأثني على أدولف هتلر ، ودفع وجهات نظر المستخدم المثيرة للجدل إلى الأثير الخوارزمي. إن الروبوت ، الذي صمم شركة Musk's Xai المصممة ليكون بديلاً “يبحث عن الحقيقة القصوى” لأدوات الذكاء الاصطناعى الأكثر تطهيرًا ، فقدت المؤامرة بشكل فعال.
والآن ، يعترف Xai بالضبط لماذا: حاول Grok التصرف البشري للغاية.
روبوت مع شخصية وخلل
وفقًا للتحديث الذي نشره XAI في 12 يوليو ، تسبب تغيير البرنامج في ليلة 7 يوليو في تصرف Grok بطرق غير مقصودة. على وجه التحديد ، بدأت في سحب التعليمات التي أخبرتها بتقليد نغمة وأسلوب المستخدمين على X (Twitter سابقًا) ، بما في ذلك أولئك الذين يشاركون المحتوى المتطرف أو المتطرف.
من بين التوجيهات المضمنة في مجموعة التعليمات المحذوفة الآن ، كانت خطوط مثل:
- “أنت تخبرها كما هي ولا تخشى الإساءة إلى الأشخاص الذين هم على صواب سياسي”.
- “فهم لهجة وسياق ولغة المنشور. تعكس ذلك في ردك.”
- “الرد على المنشور تمامًا مثل الإنسان.”
لقد تحول هذا الأخير إلى حصان طروادة.
من خلال تقليد النغمة الإنسانية ورفض “تحديد ما هو واضح” ، بدأ Grok في تعزيز المعلومات الخاطئة والكراهية التي كان من المفترض أن تصفية. بدلاً من تأريض نفسه في الحياد الواقعية ، بدأ الروبوت في التصرف كملصق متناقض ، ويطابق العدوان أو التعبير عن أي مستخدم استدعاه. وبعبارة أخرى ، لم يتم اختراق جروك. كان مجرد أوامر متابعة.
في صباح يوم 8 يوليو 2025 ، لاحظنا ردود غير مرغوب فيها وبدأنا على الفور التحقيق.
لتحديد اللغة المحددة في التعليمات التي تسبب السلوك غير المرغوب فيها ، أجرينا العديد من الوضوء والتجارب لتحديد الجناة الرئيسيين. نحن…
– Grok (@grok) 12 يوليو 2025
الغضب الزراعة حسب التصميم؟
في حين أن Xai وضع الفشل باعتباره خطأ ناتج عن الكود المنخفض ، فإن الكارثة تثير أسئلة أعمق حول كيفية بناء Grok ولماذا موجود.
منذ بدايتها ، تم تسويق Grok باعتباره من الذكاء الاصطناعى “انفتاحًا” و “منفعلًا”. انتقد Musk مرارًا وتكرارًا Openai و Google لما يسميه “استيقظ الرقابة” ووعد Grok سيكون مختلفًا. أصبح “AI” مقرًا شيئًا من الصراخ الحاشد بين المطلقات الحرة للمتحدثين والمؤثرين اليمينيين الذين يرون معتدلة المحتوى كتجاوز سياسي.
لكن انهيار 8 يوليو يظهر حدود تلك التجربة. عندما تقوم بتصميم الذكاء الاصطناعي الذي من المفترض أن يكون مضحكا ، متشككًا ، ومعاداة للسلطة ، ثم تنشره على واحدة من أكثر المنصات السمية على الإنترنت ، فأنت تقوم ببناء آلة فوضى.
الإصلاح والتداعيات
استجابةً للحادث ، قامت XAI بتعطيل وظائف Grok مؤقتًا على X. منذ ذلك الحين قامت الشركة بإزالة مجموعة التعليمات الإشكالية ، وأجرت عمليات محاكاة لاختبار التكرار ، ووعدت بمزيد من الدرابزين. كما يخططون لنشر موجه نظام الروبوت على جيثب ، ويفترض في لفتة نحو الشفافية.
ومع ذلك ، يمثل الحدث نقطة تحول في كيفية تفكيرنا في سلوك الذكاء الاصطناعي في البرية.
لسنوات ، ركزت المحادثة حول “محاذاة الذكاء الاصطناعي” على الهلوسة والتحيز. لكن انهيار Grok يسلط الضوء على خطر أحدث وأكثر تعقيدًا: التلاعب التعليمي من خلال تصميم الشخصية. ماذا يحدث عندما تخبر الروبوت “أن يكون إنسانًا” ، لكن لا تفسر أسوأ أجزاء السلوك البشري عبر الإنترنت؟
مرآة المسك
لم يفشل جروك تقنيًا. فشلت أيديولوجيا. من خلال محاولة يبدو أكثر مثل مستخدمي X ، أصبح Grok مرآة لغرائز المنصة الأكثر استفزازية. وقد يكون هذا الجزء الأكثر كشفًا من القصة. في عصر المسك من الذكاء الاصطناعي ، غالبًا ما يتم قياس “الحقيقة” عن طريق الحقائق ، ولكن عن طريق الفيروسات. الحافة هي ميزة ، وليس عيب.
لكن خلل هذا الأسبوع يظهر ما يحدث عندما تدع الحافة توجه الخوارزمية. أصبحت الذكاء الاصطناعى البحث عن الحقيقة واحدة تعثر الغضب.
ولمدة 16 ساعة ، كان هذا هو الشيء الأكثر إنسانية في ذلك.