وفقًا لـ AWS في re:Invent 2025 هذا الأسبوع، فإن دورة الضجيج الخاصة بروبوتات الدردشة قد ماتت فعليًا، حيث حل عملاء الذكاء الاصطناعي الحدودي محلهم. هذا التحول يمثل نقطة تحول حاسمة في طريقة تعامل الشركات مع الذكاء الاصطناعي، والانتقال من التجارب السطحية إلى التطبيقات العملية التي تعمل بشكل مستقل وتوفر قيمة ملموسة. لم يعد التركيز على الإبهار الأولي لروبوتات الدردشة، بل على البنية التحتية القوية والفعالة من حيث التكلفة اللازمة لتشغيل هذه الأنظمة المتقدمة على نطاق واسع.
نهاية حقبة روبوتات الدردشة: صعود عملاء الذكاء الاصطناعي الحدودي
لقد شهدنا في الأشهر الأخيرة هوسًا متزايدًا بواجهات الدردشة التي تعمل بالذكاء الاصطناعي. لكن هذا الهوس بدأ يتلاشى، ليحل محله تركيز أكثر جدية على الذكاء الاصطناعي الذي لا يتحدث فحسب، بل يتصرف بشكل مستقل لفترات طويلة. هذا يعني الانتقال من مرحلة “الجديد اللامع” إلى عصر يتطلب فيه الأمر جهدًا حقيقيًا في بناء وتشغيل وصيانة البنية التحتية اللازمة.
لم يعد كافيًا أن يكون لديك روبوت دردشة يمكنه كتابة القصائد. الآن، يجب أن تكون قادرًا على إثبات أن الاستثمار في البنية التحتية التي تدعم هذه الأنظمة مبرر. هذا التحول يضع ضغوطًا جديدة على الشركات لتبني حلولًا أكثر كفاءة وفعالية من حيث التكلفة.
معالجة أزمة “السباكة” في AWS re:Invent 2025
بناء وكلاء الذكاء الاصطناعي قادرين على تنفيذ مهام معقدة وغير حتمية كان في السابق تحديًا هندسيًا كبيرًا. كان على الشركات أن تجمع الأدوات معًا لإدارة السياق والذاكرة والأمان، وهو ما استنزف الموارد بشكل كبير.
ولكن AWS تحاول الآن تبسيط هذه العملية من خلال إطلاق Amazon Bedrock AgentCore. تُعد هذه الخدمة بمثابة نظام تشغيل للوكلاء، مما يتيح لها التعامل مع جميع العمليات الخلفية المعقدة مثل إدارة الحالة واسترجاع السياق. هذا التوحيد القياسي يوفر مكاسب كبيرة في الكفاءة.
قصص نجاح مبكرة مع AgentCore
أحد الأمثلة البارزة هو شركة MongoDB. من خلال استخدام AgentCore، تمكنوا من توحيد سلسلة الأدوات الخاصة بهم وإطلاق تطبيق يعتمد على الوكلاء في غضون ثمانية أسابيع فقط، وهي عملية كانت تستغرق في السابق شهورًا.
كما شهدت جولة PGA نتائج مماثلة، حيث استخدمت المنصة لبناء نظام إنشاء محتوى أدى إلى زيادة سرعة الكتابة بنسبة 1000٪ مع خفض التكاليف بنسبة 95٪. هذه النتائج المذهلة تؤكد الإمكانات الهائلة لـ AgentCore في تحسين الأداء وخفض التكاليف.
أدوات جديدة لفرق البرمجة: Kiro ووكلاء متخصصون
بالإضافة إلى AgentCore، أطلقت AWS أيضًا ثلاثة وكلاء ذكاء اصطناعي محددين: Kiro (مطور افتراضي)، ووكيل أمان، ووكيل DevOps. Kiro ليس مجرد أداة لإكمال التعليمات البرمجية، بل هو وكيل ذكي يتكامل مباشرة مع سير العمل من خلال “القوى” (التكاملات المتخصصة مع أدوات مثل Datadog وFigma وStripe). هذا التكامل يسمح له بفهم السياق بشكل أفضل وتقديم مساعدة أكثر دقة وفعالية.
تحديات الحوسبة والتكاليف: حلول AWS
يعمل الذكاء الاصطناعي الذي يعمل بشكل مستقل لعدة أيام على استهلاك كميات هائلة من قوة الحوسبة. إذا كانت الشركات تدفع أسعارًا قياسية عند الطلب، فقد يتبخر عائد الاستثمار بسرعة.
تدرك AWS هذا التحدي، ولهذا السبب أعلنت عن إعلانات أجهزة جديدة هذا العام. تعد Trainium3 UltraServers الجديدة، المدعومة بشرائح 3 نانومتر، قفزة كبيرة في أداء الحوسبة، حيث توفر زيادة بنسبة 4.4x مقارنة بالجيل السابق. بالنسبة للمؤسسات التي تدرب نماذج أساسية ضخمة، يمكن أن يقلل هذا من الجداول الزمنية للتدريب من أشهر إلى أسابيع.
“مصانع الذكاء الاصطناعي”: حلول هجينة
ولكن ربما يكون التغيير الأكثر إثارة للاهتمام هو المكان الذي تتم فيه هذه الحوسبة. لا تزال سيادة البيانات تمثل تحديًا كبيرًا للشركات العالمية، مما قد يمنعها من اعتماد السحابة لأحمال عمل الذكاء الاصطناعي الحساسة.
لمعالجة هذه المشكلة، تقدم AWS “مصانع الذكاء الاصطناعي”، وهي عبارة عن شحن رفوف شرائح Trainium ووحدات معالجة الرسومات NVIDIA مباشرة إلى مراكز البيانات الحالية للعملاء. هذا الحل الهجين يعترف بحقيقة بسيطة: بالنسبة لبعض البيانات، قد تكون السحابة العامة بعيدة جدًا.
معالجة الديون التقنية: AWS Transform
لا يقتصر الابتكار على الوكلاء المتطورين. تدرك AWS أن معظم ميزانيات تكنولوجيا المعلومات مثقلة بالديون التقنية. تقضي الفرق ما يقرب من 30٪ من وقتها في مجرد الحفاظ على تشغيل الأنظمة القديمة.
لمعالجة هذه المشكلة، قامت Amazon بتحديث AWS Transform، وهي خدمة تستخدم وكلاء الذكاء الاصطناعي لأتمتة عملية ترقية الكود القديم. يمكن للخدمة الآن التعامل مع ترقية كاملة لنظام Windows، بما في ذلك تطبيقات .NET وقواعد بيانات SQL Server.
استخدمت شركة طيران كندا AWS Transform لتحديث الآلاف من وظائف Lambda في غضون أيام، وهي عملية كانت ستستغرق أسابيع وتكلف خمسة أضعاف ذلك يدويًا.
توسيع النظام البيئي للمطورين
بالنسبة للمطورين الذين يرغبون في كتابة التعليمات البرمجية بأنفسهم، فإن النظام البيئي آخذ في الاتساع. تدعم Strands Agents SDK الآن TypeScript، بالإضافة إلى Python. باعتبار TypeScript لغة شائعة في تطوير الويب، فإن هذا التوسع يوفر أمانًا نوعيًا أفضل للمخرجات الفوضوية لنماذج اللغات الكبيرة (LLM)، وهو تطور ضروري.
الحوكمة والأمان في عصر الوكلاء المستقلين
مع وجود وكلاء يعملون بشكل مستقل “لأيام دون تدخل”، هناك خطر حقيقي من حدوث أخطاء أو حتى أضرار. قد يقوم وكيل بتدمير قاعدة بيانات أو تسريب معلومات شخصية دون أن يلاحظ أحد حتى فوات الأوان.
لمعالجة هذا الخطر، تقدم AWS “سياسة AgentCore”، وهي ميزة تسمح للفرق بوضع حدود واضحة للغة الطبيعية حول ما يمكن للوكيل فعله وما لا يمكنه فعله. بالإضافة إلى ذلك، توفر “التقييمات” مقاييس معدة مسبقًا لمراقبة أداء الوكيل وتحديد أي سلوك غير طبيعي.
كما يتم تحديث Security Hub، مما يربط الإشارات من GuardDuty وInspector وMacie في “أحداث” فردية، مما يقلل من الضوضاء ويساعد فرق الأمان على التركيز على التهديدات الحقيقية. يتوسع GuardDuty نفسه، باستخدام التعلم الآلي لاكتشاف أنماط التهديد المعقدة عبر مجموعات EC2 وECS.
الخلاصة: تحول حقيقي في الذكاء الاصطناعي
من الواضح أننا تجاوزنا مرحلة التجارب. الأدوات التي تم الإعلان عنها في AWS re:Invent 2025، بدءًا من السيليكون المتخصص وحتى الأطر المحكومة لـ عملاء الذكاء الاصطناعي الحدودي، مصممة للإنتاج. لم يعد السؤال المطروح على قادة المؤسسات هو “ما الذي يمكن أن يفعله الذكاء الاصطناعي؟” بل “هل يمكننا تحمل تكاليف البنية التحتية التي تمكنه من القيام بعمله؟” AWS تقدم حلولًا مقنعة لكلا السؤالين، مما يمهد الطريق لعصر جديد من الابتكار والإنتاجية.
هل أنت مستعد لاستكشاف إمكانات الذكاء الاصطناعي في مؤسستك؟ تواصل معنا اليوم لمعرفة المزيد حول كيف يمكن لـ AWS مساعدتك في تحقيق أهدافك.
