ستحتاج نماذج الذكاء الاصطناعى إلى مزيد من التخزين قريبًا
عندما يتحدث الناس عن “حجم” نموذج الذكاء الاصطناعي ، فإنهم يشيرون إلى عدد “المعلمات” التي يحتوي عليها. المعلمة هي متغير واحد في نموذج الذكاء الاصطناعى الذي يحدد كيفية إنشاء الإخراج ، وأي نموذج AI معين يمكن أن يحتوي على مليارات من هذه المعلمات.
يشار إليها أيضًا باسم الأوزان النموذجية ، وتشغل هذه المعلمات مساحة تخزين للعمل بشكل صحيح – وعندما يكون لدى نموذج الذكاء الاصطناعى مليارات المعلمات ، يمكن أن تكون متطلبات التخزين بالون بسرعة.
فيما يلي بعض الأمثلة الحالية:
- Google Gemma 2 – 1.71GB (2 مليار معلمة)
- Meta Llama 3.1 – 4.92 جيجابايت (8 مليار معلمة)
- Qwen 2.5 Coder – 8.52 جيجابايت (14 مليار معلمة)
- Meta Llama 3.3 addruct – 37.14GB (70 مليار معلمة)
- Deepseek V3 – 221.25GB (671 مليار معلمة)
كما ترون ، تزداد مساحة التخزين التي تستهلكها LLM مع حجم معلماتها. وينطبق الشيء نفسه على الأنواع الأخرى من نماذج الذكاء الاصطناعى التوليدي أيضًا. على سبيل المثال ، يشغل الانتشار المستقر V1.4 حوالي 4 جيجابايت بينما يستهلك الانتشار المستقر XL أكثر من 13 جيجابايت. يستهلك Openai's Whisper ، وهو نموذج للكلام إلى النص ، ما بين 1 جيجابايت و 6 جيجابايت اعتمادًا على ما إذا كنت تختار متغيرًا خفيف الوزن أو طراز الدسم الكامل.
ولكن هناك شيء آخر يزداد أيضًا مع حجم معلمات نموذج الذكاء الاصطناعي: ذكائه. سجل Llama 3.1 405b ، أكبر نسخة من نموذج Meta's AI ، 88.6 على معيار MMLU ، مما يعني أنه أجاب بشكل صحيح 88.6 في المائة من الأسئلة في المؤشر. وفي الوقت نفسه ، سجل طراز Lelama 3.1 70B أقل من 86 عامًا ، وسجل Llama 3.1 8b أقل.
لكي نكون واضحين ، هناك طرق لتحسين ذكاء نماذج الذكاء الاصطناعي دون زيادة المعلمات. كان ذلك بمثابة ابتكار رئيسي لـ Deepseek-V3 ، وهو نموذج الذكاء الاصطناعى الصيني الذي ظهر من أي مكان في ديسمبر 2024 مع الأداء الذي كان أفضل من Openai.
ومع ذلك ، فإن أفضل نماذج الذكاء الاصطناعى هائلة. من المفترض أن تكون Deepseek-V3 أصغر من نماذج Openai-أقول “من المفترض” لأن Openai لا يكشف عن عدد المعلمات لنماذجها المتطورة-ومع ذلك لا يزال أكثر من 220 جيجابايت. لن تتطلب معظم التطبيقات تثبيت محلي لـ Deepseek-V3 لتشغيل ميزات الذكاء الاصطناعي ، ولكنها قد ترغب في استخدام نماذج متوسطة الحجم مثل Qwen 2.5 14b (8.52 جيجابايت) أو Llama 3.3 70b (37.14 جيجا بايت).
ويزداد الأمر سوءًا على محرك الأقراص الثابتة ، لأن نماذج الذكاء الاصطناعى المختلفة لها نقاط قوة مختلفة. بعضها أفضل للكتابة بلغة طبيعية بينما يتم تحسين البعض الآخر للتخطيط المنطقي أو التخطيط خطوة بخطوة. هذا يعني أنه لا يمكنك الحصول على طراز AI المثبت محليًا. من المحتمل أنك تريد قلة. ربما العشرات.