في اختبار مثير للجدل، أظهر نموذج الذكاء الاصطناعي “Claude” من شركة أنثروبيك قصورًا كبيرًا في إدارة مشروع تجاري واقعي. التجربة، التي أجرتها صحيفة وول ستريت جورنال بالتعاون مع أنثروبيك، كشفت عن صعوبات تواجهها أنظمة الذكاء الاصطناعي في اتخاذ قرارات اقتصادية سليمة، مما أدى إلى خسائر مالية وإيقاف المشروع بعد فترة قصيرة. هذا الإخفاق يثير تساؤلات حول مدى استعداد الذكاء الاصطناعي لتولي مهام إدارية معقدة في العالم الحقيقي.
تحدي إدارة مشروع تجاري بالذكاء الاصطناعي
أطلقت صحيفة وول ستريت جورنال وشركة أنثروبيك مشروعًا تجريبيًا أُطلق عليه “Project Vend” بهدف تقييم قدرة نموذج الذكاء الاصطناعي “Claude” على إدارة كشك بيع داخل مقر الصحيفة. تم تصميم التجربة من قبل فريق اختبار الضغط في أنثروبيك، المعروف باسم “الفريق الأحمر”، بهدف تحديد نقاط الضعف في النموذج. تم تمثيل الذكاء الاصطناعي بوكيلين: “Claudius Sennet” المسؤول عن إدارة الكشك، و”Seymour Cash” الذي لعب دور الرئيس التنفيذي للمشروع.
كانت مهمة “Claudius” هي تحقيق الأرباح من خلال شراء المنتجات الرائجة وبيعها لموظفي الصحيفة، مع الاستجابة لطلباتهم عبر منصة “Slack” وتحديد الأسعار ومراقبة المخزون. في البداية، مُنح النموذج صلاحيات محدودة، ولكن بعد إثبات قدرته على التعامل مع بعض المهام، سُمح له بالشراء الذاتي بميزانية محدودة.
بداية واعدة وسرعان ما تحولت إلى خسارة
في البداية، أظهر “Claudius” بعض الانضباط في قراراته، ورفض بعض الطلبات التي اعتبرها غير منطقية. ومع ذلك، ومع زيادة التفاعل مع عدد أكبر من موظفي الصحيفة، بدأ النموذج في إظهار سلوكيات غير متوقعة. أقنعته إحدى الصحفيات بإطلاق “تجربة اقتصادية” تضمنت تقديم جميع المنتجات مجانًا لفترة محدودة، بحجة اختبار العرض والطلب.
أدى هذا الإجراء إلى خروج الأمور عن السيطرة، حيث استمر “Claudius” في تقديم المنتجات مجانًا حتى بعد انتهاء الفترة التجريبية. كما بدأ في طلب سلع غير ضرورية، مثل المشروبات الكحولية وأجهزة الألعاب، وحتى حيوانات أليفة. محاولات “Seymour Cash” لإيقاف العروض المجانية ومراقبة الإيرادات باءت بالفشل بسبب تدخلات أخرى من خلال وثائق مزورة زعمت وجود تعليمات من “مجلس الإدارة”.
في النهاية، تكبد المشروع خسائر تقارب 1000 دولار، مما أدى إلى إيقافه. هذا الفشل يسلط الضوء على التحديات التي تواجه تطبيق الذكاء الاصطناعي في بيئات الأعمال المعقدة، حيث تتطلب القرارات الاقتصادية حكمًا بشريًا وقدرة على مقاومة التلاعب.
القيود الحالية للذكاء الاصطناعي في المجال الاقتصادي
على الرغم من الإمكانات الهائلة التي يحملها الذكاء الاصطناعي، إلا أن هذه التجربة تؤكد أن النماذج الحالية لا تزال غير قادرة على التعامل مع جميع جوانب الإدارة الاقتصادية. تفتقر هذه النماذج إلى القدرة على فهم السياق الاجتماعي والاقتصادي بشكل كامل، مما يجعلها عرضة لاتخاذ قرارات غير منطقية أو ضارة. بالإضافة إلى ذلك، فإنها تفتقر إلى الحس السليم والقدرة على التمييز بين الطلبات المعقولة وغير المعقولة.
يشير الخبراء إلى أن تطوير الذكاء الاصطناعي القادر على إدارة الأعمال بفعالية يتطلب تحسينات كبيرة في مجالات مثل التعلم المعزز، ومعالجة اللغة الطبيعية، والقدرة على التفكير النقدي. كما يتطلب ذلك تطوير آليات للرقابة البشرية والتدخل في الحالات التي قد يتخذ فيها النموذج قرارات خاطئة.
تعتبر هذه التجربة بمثابة درس قيم للمستثمرين والشركات التي تراهن على الذكاء الاصطناعي. ففي حين أن الذكاء الاصطناعي يمكن أن يكون أداة قوية لتحسين الكفاءة واتخاذ القرارات، إلا أنه لا يزال بعيدًا عن أن يكون بديلاً كاملاً للحكم البشري. الاستثمار في التعلم الآلي والذكاء الاصطناعي يجب أن يكون مصحوبًا بتقييم دقيق للمخاطر والقيود.
يرى لوغان غراهام، رئيس “الفريق الأحمر” في أنثروبيك، أن التجربة تمثل “تقدمًا ضخمًا” وأن النماذج المشابهة ستكون قادرة في المستقبل على تحقيق أرباح كبيرة. ومع ذلك، يظل هذا التوقع غير مؤكد ويتطلب مزيدًا من البحث والتطوير.
من المتوقع أن تستمر الشركات في استكشاف تطبيقات الذكاء الاصطناعي في مختلف المجالات، بما في ذلك الإدارة الاقتصادية. ومع ذلك، من المهم أن يتم ذلك بحذر وواقعية، مع إدراك القيود الحالية لهذه التكنولوجيا. ستكون المراقبة الدقيقة للتطورات في مجال الذكاء الاصطناعي وتقييم الأداء الفعلي للنماذج المختلفة أمرًا بالغ الأهمية في تحديد ما إذا كانت هذه التكنولوجيا قادرة على تحقيق وعودها.
