إذا سبق لك أن ركبت سيارة أوبر ذاتية القيادة عبر وسط مدينة لوس أنجلوس، فقد تتعرف على الشعور الغريب بعدم اليقين الذي يستقر عندما لا يكون هناك سائق ولا محادثة، مجرد سيارة هادئة تضع افتراضات حول العالم من حولها. تبدو الرحلة على ما يرام حتى تخطئ السيارة في قراءة الظل أو تتباطأ فجادة بسبب شيء غير ضار. في تلك اللحظة ترى المشكلة الحقيقية مع الحكم الذاتي. لا داعي للذعر عندما ينبغي ذلك، وهذه الفجوة بين الثقة والحكم هي حيث يتم اكتساب الثقة أو فقدانها. يبدو أن الكثير من الذكاء الاصطناعي للمؤسسات اليوم متشابه بشكل ملحوظ. فهي تتسم بالكفاءة دون أن تكون واثقة، وفعالة دون أن تكون متعاطفة، ولهذا السبب لم يعد العامل الحاسم في كل عملية نشر ناجحة هو القوة الحاسوبية بل الثقة في الذكاء الاصطناعي.
فشل غالبية مشاريع الذكاء الاصطناعي: أزمة ثقة؟
يضع تقرير MLQ عن حالة الذكاء الاصطناعي في الأعمال 2025 رقمًا حادًا في هذا الشأن. فشل 95% من رواد الذكاء الاصطناعي الأوائل في تحقيق عائد استثمار قابل للقياس، ليس لأن التكنولوجيا ضعيفة ولكن لأنها غير متوافقة مع المشكلات التي تحاول المؤسسات حلها. هذا النمط يتكرر في الصناعات المختلفة. يشعر القادة بعدم الارتياح عندما لا يتمكنون من معرفة ما إذا كانت النتيجة صحيحة، وتكون الفرق غير متأكدة من إمكانية الوثوق في لوحات المعلومات، ويفقد العملاء صبرهم بسرعة عندما يبدو التفاعل آليًا بدلاً من دعمه. أي شخص تم منعه من الوصول إلى حسابه المصرفي بينما يصر نظام الاسترداد الآلي على أن إجاباته خاطئة يعرف مدى سرعة تبخر الثقة في الأنظمة الذكية.
Klarna: قصة نجاح معقدة
تظل Klarna المثال الأكثر شهرة للأتمتة واسعة النطاق في العمل. لقد خفضت الشركة الآن قوتها العاملة إلى النصف منذ عام 2022، وتقول إن أنظمة الذكاء الاصطناعي الداخلية تؤدي عمل 853 وظيفة بدوام كامل، ارتفاعًا من 700 في وقت سابق من هذا العام. وارتفعت الإيرادات بنسبة 108%، في حين زاد متوسط تعويضات الموظفين بنسبة 60%، بتمويل جزئي من تلك المكاسب التشغيلية. ومع ذلك فإن الصورة أكثر تعقيدا. لا تزال شركة Klarna تعلن عن خسارة ربع سنوية قدرها 95 مليون دولار، وقد حذر مديرها التنفيذي من احتمال حدوث المزيد من التخفيضات في عدد الموظفين. يظهر أن الأتمتة وحدها لا تخلق الاستقرار. وبدون المساءلة والهيكلة، تنهار التجربة قبل فترة طويلة من انهيار الذكاء الاصطناعي.
المساءلة أولاً: أساس بناء الثقة
وكما يقول جيسون روس، الرئيس التنفيذي لمزود خدمة CCaaS Cirrus، “إن أي تحول يزعزع الثقة، داخل الشركة أو خارجها، يحمل تكلفة لا يمكنك تجاهلها. وقد يجعلك في وضع أسوأ”. لقد رأينا بالفعل ما يحدث عندما يتقدم الحكم الذاتي على المساءلة. استخدمت وزارة العمل والمعاشات في المملكة المتحدة خوارزمية أشارت بشكل خاطئ إلى نحو 200 ألف مطالبة للحصول على إعانات الإسكان باعتبارها احتيالية محتملة، على الرغم من أن أغلبها كانت مشروعة. المشكلة لم تكن التكنولوجيا. وكان غياب الملكية الواضحة لقراراتها. عندما يعلق نظام آلي حسابًا خاطئًا، أو يرفض ادعاءً خاطئًا، أو يخلق خوفًا غير ضروري، فإن المشكلة لا تقتصر أبدًا على “لماذا فشل النموذج؟” إنها “من يملك النتيجة؟” وبدون هذه الإجابة، تصبح الثقة في التكنولوجيا هشة.
الاستعداد هو المفتاح
يقول روس: “الخطوة المفقودة دائمًا هي الاستعداد”. “إذا لم تكن العملية والبيانات وحواجز الحماية موجودة، فإن الاستقلالية لا تعمل على تسريع الأداء، بل إنها تضخم نقاط الضعف. يجب أن تأتي المساءلة أولاً. ابدأ بالنتيجة، وابحث عن المكان الذي يهدر فيه الجهد، وتحقق من جاهزيتك وحوكمتك، وعندها فقط قم بالتشغيل الآلي. تخطي هذه الخطوات وتختفي المساءلة بمجرد وصول مكاسب الكفاءة.”
تراجع ثقة الجمهور في الذكاء الاصطناعي
جزء من المشكلة هو الهوس بالحجم دون الأساس الذي يجعل الحجم مستدامًا. تتجه العديد من المؤسسات نحو وكلاء مستقلين يمكنهم التصرف بشكل حاسم، لكن القليل منهم يتوقفون للتفكير في ما يحدث عندما تنحرف تلك التصرفات خارج الحدود المتوقعة. يظهر مقياس إيدلمان للثقة انخفاضًا مطردًا في ثقة الجمهور في الذكاء الاصطناعي على مدى السنوات الخمس الماضية، ووجدت دراسة مشتركة أجرتها شركة KPMG وجامعة ملبورن أن العمال يفضلون المزيد من المشاركة البشرية في ما يقرب من نصف المهام التي تم فحصها. هذه النتائج تعزز نقطة بسيطة: نادراً ما تأتي الثقة من دفع النماذج بقوة أكبر. بل تأتي من الأشخاص الذين يأخذون الوقت الكافي لفهم كيفية اتخاذ القرارات، ومن الإدارة التي تتصرف بشكل أقل شبهاً بدواسة الفرامل وأكثر شبهاً بعجلة القيادة.
الشفافية والتعاطف: سد الفجوة
وتظهر نفس الديناميكيات من جانب العميل. تكشف أبحاث الثقة التي تجريها شركة برايس ووترهاوس كوبرز عن وجود فجوة واسعة بين التصور والواقع. يعتقد معظم المديرين التنفيذيين أن العملاء يثقون بمؤسستهم، في حين أن أقلية فقط من العملاء يوافقون على ذلك. وتُظهر استطلاعات أخرى أن الشفافية تساعد في سد هذه الفجوة، حيث ترغب أغلبية كبيرة من المستهلكين في الكشف الواضح عند استخدام الذكاء الاصطناعي في تجارب الخدمة. وبدون هذا الوضوح لا يشعر الناس بالطمأنينة. يشعرون بالتضليل وتتوتر العلاقة. الشركات التي تتواصل بشكل مفتوح حول استخدامها للذكاء الاصطناعي لا تحمي الثقة فحسب، بل تعمل أيضًا على تطبيع فكرة إمكانية التعايش بين التكنولوجيا والدعم البشري.
الذكاء الاصطناعي الوكيل: أتمتة منظمة وليست سحرًا
ينبع بعض الالتباس من مصطلح “الذكاء الاصطناعي الوكيل” نفسه. يتعامل معه الكثير من السوق على أنه شيء لا يمكن التنبؤ به أو ذاتي التوجيه، في حين أنه في الواقع عبارة عن أتمتة لسير العمل مع التفكير والتذكر. إنها طريقة منظمة للأنظمة لاتخاذ قرارات متواضعة ضمن المعلمات التي صممها الأشخاص. تتبع جميع عمليات النشر التي يتم قياسها بأمان نفس التسلسل. إنهم يبدأون بالنتيجة التي يريدون تحسينها، ثم ينظرون إلى مكامن الجهد غير الضروري في سير العمل، ثم يقيمون ما إذا كانت أنظمتهم وفرقهم جاهزة للاستقلالية، وعندها فقط يختارون التكنولوجيا. عكس هذا الترتيب لا يسرع أي شيء. إنه ببساطة يخلق أخطاء أسرع. وكما يقول روس، ينبغي للذكاء الاصطناعي أن يوسع نطاق الحكم البشري، وليس أن يحل محله.
الذكاء الاصطناعي: مسألة اجتماعية وليست تقنية
كل هذا يشير إلى حقيقة أوسع. تصبح كل موجة من الأتمتة في نهاية المطاف مسألة اجتماعية وليست تقنية بحتة. قامت أمازون ببناء هيمنتها من خلال الاتساق التشغيلي، لكنها قامت أيضًا ببناء مستوى من الثقة في وصول الطرد. وعندما تنخفض هذه الثقة، يمضي العملاء قدماً. يتبع الذكاء الاصطناعي نفس النمط. يمكنك نشر أنظمة متطورة ذاتية التصحيح، ولكن إذا شعر العميل بأنه تم خداعه أو تضليله في أي وقت، فإن الثقة تنكسر. وعلى الصعيد الداخلي، تنطبق نفس الضغوط. تسلط دراسة KPMG العالمية الضوء على مدى سرعة انسحاب الموظفين عندما لا يفهمون كيفية اتخاذ القرارات أو من المسؤول عنها. وبدون هذا الوضوح، يتوقف التبني.
ومع تولي الأنظمة الوكيلة المزيد من الأدوار التحادثية، يصبح البعد العاطفي أكثر أهمية. تُظهر المراجعات المبكرة لتفاعلات الدردشة المستقلة أن الأشخاص يحكمون الآن على تجربتهم ليس فقط من خلال ما إذا كانوا قد حصلوا على المساعدة ولكن أيضًا من خلال ما إذا كان التفاعل يشعر بالاهتمام والاحترام. أصبحت النغمة العاطفية للذكاء الاصطناعي عاملاً تشغيليًا حقيقيًا، والأنظمة التي لا تستطيع تلبية هذه التوقعات تخاطر بالتحول إلى التزامات.
والحقيقة الصعبة هي أن التكنولوجيا سوف تستمر في التحرك بسرعة أكبر من ارتياح الناس الغريزي لها. سوف تتخلف الثقة دائمًا عن الابتكار. وهذه ليست حجة ضد التقدم. إنها حجة للنضج. يجب على كل قائد في مجال الذكاء الاصطناعي أن يتساءل عما إذا كان سيثق في النظام ببياناته الخاصة، وما إذا كان بإمكانه شرح قراره الأخير بلغة واضحة، ومن يتدخل عندما يحدث خطأ ما. إذا كانت هذه الإجابات غير واضحة، فإن المنظمة لا تقود التحول. إنه يستعد للاعتذار.
يقول روس ببساطة: “الذكاء الاصطناعي العميل ليس هو ما يثير القلق. الذكاء الاصطناعي غير الخاضع للمساءلة هو ما يثير القلق”. عندما تختفي الثقة، يذهب التبني، ويصبح المشروع الذي بدا تحويليًا مدخلاً آخر في معدل الفشل البالغ 95٪. الحكم الذاتي ليس هو العدو. نسيان من المسؤول هو. إن المنظمات التي تبقي يداً بشرية على عجلة القيادة هي التي ستظل هي المسيطرة عندما تتلاشى الضجة حول القيادة الذاتية في نهاية المطاف.
