لأكثر من عقدين من الزمن سمعنا عن وفاة قانون مور. لقد كان ذلك أحد مبادئ المؤسس المشارك لشركة إنتل الراحل جوردون مور، الذي افترض أن عدد الترانزستورات في الشريحة سوف يتضاعف كل عامين تقريبًا. وفي عام 2006، قال مور نفسه إن الأزمة ستنتهي في عشرينيات القرن الحالي. قال البروفيسور تشارلز ليسرسون من معهد ماساتشوستس للتكنولوجيا إن الأمر انتهى في عام 2016. وأعلن الرئيس التنفيذي لشركة Nvidia وفاتها في عام 2022. وادعى الرئيس التنفيذي لشركة Intel العكس بعد بضعة أيام.
ليس هناك شك في أن مفهوم قانون مور – أو بالأحرى الملاحظة، خشية أن نتعامل مع هذا كقانون من قوانين الفيزياء – قد أدى إلى ابتكار مذهل بين معالجات سطح المكتب. لكن موت قانون مور ليس لحظة من الزمن. إنها عملية بطيئة وقبيحة، ونحن أخيرًا نرى كيف يبدو ذلك عمليًا.
الحلول الإبداعية
لدينا جيلان جديدان من AMD وIntel، ولم يخرج أي منهما من البوابة متأرجحًا. كما يمكنك أن تقرأ في مراجعتي لـ Core Ultra 9 285K، حققت أحدث محاولة من Intel الكثير من الإنجازات المثيرة للإعجاب بتصميمها الجديد جذريًا، لكنها لا تزال غير قادرة على الصمود في وجه المنافسة. وRyzen 9 9950X، على الرغم من الترقية الواضحة مقارنة بنظرائه من Zen 4، إلا أنه لا يقدم تحسينات الأجيال التي اعتدنا عليها.
احصل على تحليلك الأسبوعي للتقنية الكامنة وراء ألعاب الكمبيوتر
ضع في اعتبارك هذا – بالنظر إلى Cinebench R23، كانت القفزة متعددة النواة من Ryzen 9 5950X إلى Ryzen 9 7950X 36%. بين Ryzen 9 7950X و Ryzen 9 9950X؟ 15%. وهذا أقل من نصف التحسن خلال جيل واحد. في Handbrake، قام Ryzen 9 7950X بتسريع عملية تحويل الترميز بنسبة 34% مقارنةً بـ Ryzen 9 5950X. مع Ryzen 9 9950X، تقلص التحسن إلى 13% فقط.
هذا ليس مجرد جيل غريب أيضًا. بالنظر إلى الأداء أحادي النواة لـ Core i9-101900K وCore i9-12900K، حققت Intel تحسنًا بنسبة 54%. حتى مقارنة Core i9-12900K، الذي يبلغ عمره ثلاثة أجيال في هذه المرحلة، بأحدث Core Ultra 9 285K، فإننا نرى تحسنًا بنسبة 20٪ فقط. والأسوأ من ذلك أن سلسلة Core Ultra الجديدة من Intel تظهر نتائج عالية بشكل غريب في Cinebench، وإذا انتقلت إلى تطبيقات أخرى، يمكنك بالفعل رؤية بعض التراجعات مقارنة بجيل أو جيلين سابقين.
وحتى في غضون سنوات قليلة فقط، تباطأ معدل تحسين الأداء بشكل كبير. لا يتحدث قانون مور بشكل مباشر عن تحسينات الأداء، فهو ببساطة يهتم بعدد الترانزستورات الموجودة على الشريحة. ولكن هذا له آثار واضحة على الأداء. إن طرح المزيد من الترانزستورات لحل المشكلة ليس أمرًا عمليًا كما كان من قبل – اقرأ عن وفاة مقياس Dennard إذا كنت تريد معرفة المزيد عن سبب حدوث ذلك.
قد لا تتحدث شركتا AMD وIntel عن هذا الأمر علنًا، لكن كلا الشركتين ترى بوضوح الكتابة على الجدران. وهذا على الأرجح هو السبب وراء تحول شركة Intel إلى بنية هجينة في المقام الأول، ولماذا قدمت إعادة تصميم جذرية لوحدات المعالجة المركزية Arrow Lake الخاصة بها. ومن جانب AMD، ليس سرًا أن 3D V-Cache أصبحت تقنية محددة لوحدات المعالجة المركزية الخاصة بالشركة، وهي طريقة واضحة للالتفاف على عنق الزجاجة في قانون مور. يتم تخصيص جزء كبير من الترانزستورات الموجودة على أي قالب لوحدة المعالجة المركزية للتخزين المؤقت – في مكان ما في حدود 40٪ إلى 70٪ – وتقوم AMD حرفيًا بتكديس المزيد من ذاكرة التخزين المؤقت في الأعلى بحيث لا يمكن وضعها في القالب.
وظيفة الفضاء
أحد العوامل المهمة التي يجب أخذها في الاعتبار عند النظر إلى قانون مور وقياس دينارد هو المساحة. من المؤكد أنه يمكنك بناء شريحة ضخمة باستخدام عدد كبير من الترانزستورات، ولكن ما مقدار الطاقة التي ستستهلكها؟ هل ستكون قادرة على البقاء تحت درجة حرارة معقولة؟ هل سيكون من العملي أيضًا وضع خادم في جهاز الكمبيوتر أو في المؤسسة؟ لا يمكنك فصل عدد الترانزستورات عن حجم القالب.
أتذكر المحادثة التي أجريتها مع كريس هول من AMD، حيث أخبرني: “لقد كنا جميعًا نستمتع بقانون مور لفترة طويلة، ولكن هذا نوعًا ما قد انتهى. والآن، كل مليمتر مربع من السيليكون باهظ الثمن، ولا يمكننا تحمل الاستمرار في المضاعفة. يمكننا، يمكننا أن نبني تلك الرقائق، ونعرف كيف نبنيها، لكنها تصبح أكثر تكلفة.
أنا لست هنا للدفاع عن استراتيجية التسعير المجنونة لشركة Nvidia، ولكن يقال إن الشركة شهدت أسعارًا أعلى من TSMC مع وحدات معالجة الرسومات RTX 40-series الخاصة بها مقارنة بما شهدته مع Samsung مع وحدات معالجة الرسوميات RTX 30-series. ويقدم RTX 4090 أكثر من ضعف عدد الترانزستور مثل RTX 3090 بحجم قالب مشابه جدًا. إذا كان هناك التزام بقانون مور عبر الرقائق، فأنا لست متأكدًا من أننا كمستهلكين سوف نحب النتيجة عندما يحين وقت ترقية جهاز الكمبيوتر.
ناهيك عن المشكلات الأخرى التي واجهتها بطاقة مثل RTX 4090 – متطلبات الطاقة العالية، وحجم المبرد الجنوني، وموصل الطاقة الذائب. ليست كل هذه المشاكل ناتجة عن مضاعفة عدد الترانزستورات ولا حتى قريبة منها، لكنها تلعب دورًا. رقائق أكبر لمزيد من الترانزستورات، والمزيد من الحرارة، وعادة ما تكون بتكلفة أعلى، خاصة مع استمرار ارتفاع تكلفة السيليكون.
الاختصار
لقد انتهى قانون مور، وأصبحت أجهزة الكمبيوتر الشخصي أكثر تكلفة، وكل شيء سيء – وهذه ليست الطريقة التي أريد أن أترك بها هذا الأمر. سيكون هناك المزيد من الطرق لتقديم تحسينات في الأداء عامًا بعد عام، والتي لا تعتمد فقط على المزيد من الترانزستورات الموجودة على شريحة بنفس الحجم. الطريقة التي نصل بها إلى هناك الآن مختلفة تمامًا. أنا أتحدث عن الذكاء الاصطناعي.
انتظر، لا تنقر فوق المقالة. شركات التكنولوجيا متحمسة للذكاء الاصطناعي لأنه يمثل الكثير من المال – رغم أن هذا المنظور ساخر، إلا أنه مجرد طريقة عمل الشركات التي تبلغ قيمتها تريليون دولار مثل مايكروسوفت ونفيديا. لكن الذكاء الاصطناعي يمثل أيضًا وسيلة لتقديم شكل جديد من الحوسبة. أنا لا أتحدث عن عدد كبير من مساعدي الذكاء الاصطناعي وروبوتات الدردشة الهلوسة، بل أتحدث عن تطبيق التعلم الآلي على مشكلة ما لتقريب النتائج التي كنا سنحصل عليها سابقًا من خلال ابتكار السيليكون الخالص.
انظر إلى DLSS. إن فكرة استخدام الترقية للحفاظ على مستوى معين من الأداء هي فكرة مثيرة للجدل، وهي محادثة دقيقة عندما يتعلق الأمر بالألعاب الفردية. لكن DLSS يتيح أداءً أفضل دون إجراء تحسينات صارمة على الأجهزة. أضف فوق ذلك إنشاء الإطارات، الذي نراه الآن من DLSS، وFSR، وأدوات الطرف الثالث مثل Lossless Scaling، وسيكون لديك الكثير من وحدات البكسل التي لا يتم عرضها مطلقًا بواسطة بطاقة الرسومات الخاصة بك.
الزاوية الأقل إثارة للجدل هي إعادة بناء راي نفيديا. ليس سرًا أن تتبع الأشعة أمر صعب، وجزء من التغلب على الطلب على الأجهزة هو عملية تقليل الضوضاء – الحد من عدد الأشعة، ثم تنظيف الصورة الناتجة عن طريق تقليل الضوضاء. تقدم Ray Reconstruction نتيجة تتطلب المزيد من الأشعة وأجهزة أكثر قوة، وهي تفعل ذلك دون الحد من الأداء على الإطلاق – ومرة أخرى، من خلال التعلم الآلي.
لا يهم حقًا ما إذا كان قانون مور ميتًا أو حيًا وبصحة جيدة – إذا أرادت شركات مثل AMD وIntel وNvidia البقاء واقفة على قدميها، فسوف تحتاج باستمرار إلى التفكير في حلول لمعالجة متطلبات الأداء المتزايدة. الابتكار لم يمت بعد في أجهزة الكمبيوتر، لكنه قد يبدأ في الظهور بشكل مختلف بعض الشيء.