يبدو أن ذاكرة عرض النطاق الترددي العالي (HBM)، التي تُعد العمود الفقري لتسريع عمليات الحوسبة العالية الأداء (HPC)، مُقبلة على مضاعفة عائداتها المالية بحلول عام 2025 مع اتجاه الشركات لإطلاق جيل جديد من الرقاقات المستندة إلى ذاكرة HBM.
وقد لوحظ في الآونة الأخيرة ارتفاع هائل في الإقبال على ذاكرة HBM، خاصة مع تطور الذكاء الاصطناعي وظهوره في مختلف المجالات، وهذا أدى إلى دخول شركات مثل سامسونج، و SK Hynix، وميكرون بقوة في هذا المجال.
تُعد الشركات الثلاثة وهي: سامسونج و SK Hynix وميكرون، اللاعب الكبير في سوق ذاكرة HBM. ومن المتوقع أن تهيمن أيضًا في المستقبل القريب على ذاكرة الجيل القادم HBM4 التي لاقت اهتمامًا كبيرًا بفضل المزايا التي تتمتع بها.
وبناءً على ذلك، أفاد التقرير الصادر عن مجموعة أبحاث Gartner أن سوق ذاكرة HBM سيصل إلى قيمة مالية تبلغ 4.976 مليارات دولارٍ بحلول عام 2025، أي قرابة ضعف الأرقام التي تحققت في عام 2023. ويستند التقرير فقط إلى معدل الإقبال الحالي والمتوقع من ذاكرة HBM التي تستخدم في وحدات معالجة الرسوم لتسريع أداء الذكاء الاصطناعي.
اللافت أن الارتفاع المفاجئ في الإقبال على وحدات معالجة الرسوم المخصصة للذكاء الاصطناعي أدى إلى نقص في مخزون ذاكرة HBM في الأسواق، إذ تعد ذاكرة HBM المكون الرئيسي في مُسرعات الذكاء الاصطناعي التي تنتجها إنفيديا و AMD وإنتل.
كما تخطط إنفيديا للكشف عن وحدة معالجة الرسوم H200 المستندة إلى معمارية Hopper، والتي تتضمن ذاكرة HBM3e من شركة ميكرون بحجم قدره 141 جيجابايت، مع عرض نطاق ترددي للذاكرة يصل إلى 4.8 تيرابايت/ الثانية.
لكن وحدة معالجة الرسوم B100 المستندة إلى معمارية Blackwell هي التي تبني عليها إنفيديا آمالًا كبرى، ويتوقع أن تشهد تحسينات ضخمة في مستوى الأداء لكل واط، وذلك بفضل اعتماد إنفيديا على تصميم (Chiplet). وتخطط شركة AMD أيضًا لاستخدام ذاكرة HBM4 للكشف عن وحدة معالجة الرسوم Instinct من الجيل التالي في عام 2025، بعد أن أطلقت منذ شهر ديسمبر العام الماضي وحدة معالجة الرسوم Instinct MI300X التي تتضمن ذاكرة HBM3 بحجم قدره 192 جيجابايت.
تابعنا