نظرًا لأن الأحداث الجيوسياسية تشكل العالم ، فليس من المستغرب أن تؤثر على التكنولوجيا أيضًا – على وجه التحديد ، بالطرق التي يتغير بها سوق الذكاء الاصطناعى الحالي ، إلى جانب منهجيتها المقبولة ، وكيفية تطويرها ، والطرق التي يتم استخدامها في المؤسسة.
تتوقع توقعات النتائج من الذكاء الاصطناعي متوازنة في الوقت الحاضر مع حقائق العالم الحقيقي. وما زالت هناك قدر كبير من الشكوك حول التكنولوجيا ، مرة أخرى في توازن مع أولئك الذين يعتنقونها حتى في مراحلها الحالية. يتم الطعن في طبيعة الحلقة المغلقة لـ LLMs المعروفة من قبل مثيلات مثل Llama و Deepseek و Baidu Ernie X1 التي صدرت مؤخرًا.
في المقابل ، يوفر تطوير المصدر المفتوح الشفافية والقدرة على المساهمة مرة أخرى ، والتي تتوافق أكثر مع الرغبة في “AI المسؤولة”: وهي عبارة تشمل التأثير البيئي للنماذج الكبيرة ، وكيفية استخدام AIS ، وما الذي يضم تعلمهم كوربوراوالقضايا حول سيادة البيانات واللغة والسياسة.
كما أظهرت الشركة التي أظهرت صلاحية نموذج تطوير المصدر المفتوح الاستدامة اقتصاديًا لأعمالها ، ترغب Red Hat في توسيع نطاق نهجها المفتوح والتعاوني والمجتمع في الذكاء الاصطناعي. لقد تحدثنا مؤخرًا إلى Julio Guijarro ، CTO for EMEA في Red Hat ، عن جهود المنظمة لإلغاء قفل القوة التي لا شك فيها لنماذج الذكاء الاصطناعى التوليدي بطرق تجلب قيمة للمؤسسة ، بطريقة مسؤولة ومستدامة وشفافة قدر الإمكان.
أكد جوليو على مقدار التعليم الذي لا يزال مطلوبًا لكي نفهم منظمة العفو الدولية بشكل كامل ، قائلاً: “بالنظر إلى المجهولون المهمة حول أعمال AI الداخلية ، والتي تتأرجح في العلوم والرياضيات المعقدة ، فإنه يبقى” صندوقًا أسود “للكثيرين. هذا الافتقار إلى الشفافية يتضاعف حيث تم تطويره في بيئة غير ممكنة إلى حد كبير.”
هناك أيضًا مشكلات في اللغة (لغات أوروبية ومتوسطة الشرق المتوسطة غير مخصصة للغاية) ، والثقة في البيانات ، والثقة بشكل أساسي. “البيانات هي أصول المؤسسة الأكثر قيمة ، وتحتاج الشركات إلى التأكد من أنها على دراية بمخاطر تعريض البيانات الحساسة للمنصات العامة مع سياسات خصوصية متفاوتة.”
استجابة القبعة الحمراء
كان رد ريد هات على الطلب العالمي على الذكاء الاصطناعى هو متابعة ما تشعر أنه سيحقق معظم الفوائد للمستخدمين النهائيين ، وإزالة العديد من الشكوك والتحذيرات التي أصبحت واضحة بسرعة عندما تكون بحكم الواقع يتم نشر خدمات الذكاء الاصطناعي.
وقال جوليو إن إجابات واحدة هي نماذج لغة صغيرة ، تعمل محليًا أو في السحب الهجينة ، على الأجهزة غير المتخصصة ، والوصول إلى معلومات الأعمال المحلية. SLMs هي بدائل مضغوطة وفعالة لـ LLMs ، مصممة لتقديم أداء قوي لمهام محددة مع طلب موارد حسابية أقل بكثير. هناك مقدمي خدمات سحابة أصغر يمكن استخدامها لتفريغ بعض الحسابات ، ولكن المفتاح هو أن يتمتع بالمرونة والحرية في اختيار الاحتفاظ بالمعلومات الناقدة للأعمال في المنزل ، بالقرب من النموذج ، إذا رغبت في ذلك. هذا مهم ، لأن المعلومات في المنظمة تتغير بسرعة. وقال: “أحد التحديات التي يواجهها نماذج اللغة الكبيرة هي أنها يمكن أن تتقدم بسرعة لأن توليد البيانات لا يحدث في السحب الكبيرة. البيانات تحدث بجوارك وعمليات عملك”.
هناك أيضا التكلفة. “يمكن أن تقدم خدمة العملاء الخاصة بك بالاستعلام عن LLM تكلفة خفية كبيرة – قبل الذكاء الاصطناعي ، كنت تعلم أنه عندما تقوم بإجراء استعلام عن البيانات ، كان لها نطاق محدود ويمكن التنبؤ به. لذلك ، يمكنك حساب مدى تكلفة تلك المعاملة. الاستعلام الذي كان من قبل يمكن أن تصبح معاملة واحدة الآن مائة ، اعتمادًا على من وكيف تستخدم النموذج.
لا تحتاج المنظمات إلى استعداد نفسها لجولة الشراء التي تتضمن كتابة فحص ضخم ل GPUs. جزء من عمل Red Hat الحالي هو تحسين النماذج (في المفتوحة ، بالطبع) لتشغيلها على أجهزة أكثر قياسية. هذا ممكن لأن النماذج المتخصصة التي ستستخدمها العديد من الشركات لا تحتاج إلى بيانات ضخمة للأغراض العامة مجموعة يجب معالجتها بتكلفة عالية مع كل استعلام.
“الكثير من العمل الذي يحدث الآن هو الأشخاص الذين يبحثون في نماذج كبيرة وإزالة كل ما لا يلزم وجود حالة استخدام معينة. إذا أردنا أن نجعل منظمة العفو الدولية في كل مكان ، يجب أن يكون من خلال نماذج لغة أصغر. نحن نركز أيضًا على دعم وتحسين VLLM (مشروع الاستدلال) للتأكد من أن الأشخاص يمكنهم التفاعل مع كل هذه النماذج بطريقة فعالة ومستهلكًا.
الحفاظ عليها صغيرة
يعني استخدام البيانات المحلية ذات الصلة بالمستخدم أن النتائج يمكن صياغتها وفقًا للحاجة. استشهد Julio بمشاريع في العوالم الناطقة باللغة العربية والبرتغالية والتي لن تكون قابلة للحياة باستخدام اسم الأسرة المتمحورة حول اللغة الإنجليزية LLMS.
هناك بعض القضايا الأخرى ، أيضًا ، التي وجدتها منظمات المتبني المبكرة في استخدام LLMs عمليًا. الأول هو الكمون-والذي يمكن أن يكون مشكلة في السياقات الحساسة للوقت أو العميل. امتلاك الموارد المركزة والنتائج ذات الصلة ، مجرد قفزة الشبكة أو اثنين من المنطقي.
ثانياً ، هناك قضية الثقة: جزء لا يتجزأ من AI المسؤول. Red Hat يدعو إلى المنصات والأدوات والنماذج المفتوحة حتى نتمكن من التحرك نحو الشفافية والتفاهم والقدرة على المساهمة أكبر عدد ممكن من الأشخاص. قال جوليو: “سيكون الأمر بالغ الأهمية للجميع”. “نحن نبني قدرات لإضفاء الطابع الديمقراطي على الديمقراطية ، وهذا ليس فقط نشر نموذج ، بل يمنح المستخدمين الأدوات لتكون قادرة على تكرارها وضبطها وخدمتها.”
استحوذت Red Hat مؤخرًا على Magic Neural Magic لمساعدة المؤسسات بسهولة على توسيع نطاق AI ، لتحسين أداء الاستدلال ، ولتوفير خيار أكبر وسهولة الوصول إلى كيفية إنشاء المؤسسات ونشر أعباء عمل AI مع مشروع VLLM لتقديم النموذج المفتوح. تم إصدار Red Hat ، إلى جانب IBM Research ، أيضًا من AddructLab لفتح الباب لبناة الذكاء الاصطناعى الذين ليسوا علماء بيانات ولكن لديهم معرفة تجارية صحيحة.
هناك قدر كبير من التكهنات حول ما إذا كان ، أو متى ، قد تنفجر فقاعة الذكاء الاصطناعى ، لكن مثل هذه المحادثات تميل إلى الانجذاب إلى الواقع الاقتصادي الذي سيتعين على مزودي LLM الكبار مواجهته قريبًا. يعتقد Red Hat أن الذكاء الاصطناعى لديه مستقبل في استخدام نموذج خاص بالمصدر ومفتوح بطبيعته ، وهي تقنية من شأنها أن تكون منطقية وستكون متاحة للجميع. على حد تعبير رئيس جوليو ، مات هيكس (الرئيس التنفيذي لشركة ريد هات) ، “مستقبل الذكاء الاصطناعى مفتوح”.
الأصول الداعمة:
رحلة تقنية: تبني وتوسيع نطاق الذكاء الاصطناعي