تم نشر دراسة AAAI جديدة (جمعية تقدم الذكاء الاصطناعي) مع مئات من الباحثين من الذكاء الاصطناعي المساهمين هذا الشهر ، والوجبات الرئيسية هي: من غير المرجح أن يقودنا نهجنا الحالي تجاه الذكاء الاصطناعي إلى الذكاء العام الاصطناعي.
كانت الذكاء الاصطناعى كلمة طنانة منذ عامين جيدين ، ولكن الذكاء الاصطناعي كمجال للبحث موجود لعدة عقود. تم نشر ورقة Alan Turing الشهيرة “آلات الحوسبة والذكاء” واختبار Turing الذي ما زلنا نتحدث عنه اليوم ، على سبيل المثال ، في عام 1950.
ولدت الذكاء الاصطناعي الذي يتحدث عنه الجميع اليوم من عقود من الأبحاث هذه ، لكنه يتباعد أيضًا. بدلاً من أن نكون سعيًا علميًا ، لدينا الآن أيضًا فرعًا منحرفًا من الذكاء الاصطناعي الذي يمكنك تسميته “AI التجارية”.
تقود الجهود المبذولة في الذكاء الاصطناعي التجاري احتكارات التكنولوجيا الكبيرة مثل Microsoft و Google و Meta و Apple و Amazon – وهدفها الأساسي هو إنشاء منتجات AI. لا ينبغي أن يكون هذا مشكلة ، ولكن في الوقت الحالي ، يبدو أنها قد تكون كذلك.
أولاً ، نظرًا لأن معظم الناس لم يتبعوا أبحاث الذكاء الاصطناعى حتى قبل عامين ، فإن كل شيء يعرفه الشخص العادي عن الذكاء الاصطناعى يأتي من هذه الشركات ، بدلاً من مجتمع العلوم. تغطي الدراسة هذا الموضوع في فصل “إدراك الذكاء الاصطناعى مقابل الواقع” ، مع 79 ٪ من العلماء يعتقدون أن التصور الحالي لقدرات الذكاء الاصطناعى لا يتطابق مع واقع البحث والتطوير الذكاء الاصطناعي.
بمعنى آخر ، ما يعتقد الجمهور العام الذي يمكن أن يفعله الذكاء الاصطناعي لا يتطابق مع ما يعتقد العلماء الذكاء الاصطناعي. السبب في ذلك بسيط كما هو مؤسف: عندما يدلي ممثل التكنولوجيا الكبير بيانًا عن الذكاء الاصطناعي ، فهو ليس رأيًا علميًا – إنه تسويق المنتج. إنهم يريدون زيادة التقنية وراء منتجاتهم الجديدة والتأكد من أن الجميع يشعرون بالحاجة إلى القفز على هذه العربة.
عندما يقول Sam Altman أو Mark Zuckerberg أن وظائف هندسة البرمجيات سيتم استبدالها بـ AI ، على سبيل المثال ، لأنهم يريدون التأثير على المهندسين لتعلم مهارات الذكاء الاصطناعى والتأثير على شركات التكنولوجيا للاستثمار في خطط المؤسسات الثمنية. إلى أن يبدأوا في استبدال مهندسيهم (والاستفادة منه) ، ومع ذلك ، فلن أستمع شخصياً إلى كلمة يقولون حول الموضوع.
ليس مجرد تصور عام أن الذكاء الاصطناعى التجارية يؤثر ، ولكن. يعتقد المشاركون في الدراسة أن “الضجيج الذكاء” الذي يتم تصنيعه من قبل التكنولوجيا الكبيرة يضر الجهود البحثية. على سبيل المثال ، يتفق 74 ٪ على أن اتجاه أبحاث الذكاء الاصطناعى مدفوع بالضجيج – وهذا على الأرجح لأن الأبحاث التي تتوافق مع أهداف الذكاء الاصطناعى التجارية أسهل في تمويلها. 12 ٪ يعتقدون أيضًا أن أبحاث الذكاء الاصطناعى النظرية تعاني نتيجة لذلك.
لذا ، ما مقدار هذه المشكلة؟ حتى لو كانت شركات التكنولوجيا الكبيرة تؤثر على نوع الأبحاث التي نقوم بها ، فأنت تعتقد أن مبالغ الأموال الكبيرة للغاية التي تضخها في هذا المجال يجب أن يكون لها تأثير إيجابي بشكل عام. ومع ذلك ، يعد التنوع أساسيًا عندما يتعلق الأمر بالبحث – نحتاج إلى متابعة جميع أنواع المسارات المختلفة لإيجاد فرصة للعثور على أفضل ما.
لكن التكنولوجيا الكبيرة تركز حقًا على شيء واحد في الوقت الحالي – نماذج لغة كبيرة. هذا النوع المحدد للغاية من نموذج الذكاء الاصطناعى هو ما يدور حول جميع أحدث منتجات الذكاء الاصطناعى ، وأرقام مثل Sam Altman تعتقد أن توسيع نطاق هذه النماذج أكثر وأكثر (أي منحهم المزيد من البيانات ، ومزيد من وقت التدريب ، والمزيد من القوة حسابية) سوف يمنحنا الذكاء العام الاصطناعي في النهاية.
يقول هذا الاعتقاد ، الذي يطلق عليه فرضية التحجيم ، أنه كلما زادت القوة التي نطعمها منظمة العفو الدولية ، كلما زادت قدراته المعرفية ، كلما انخفضت معدلات الخطأ. تقول بعض التفسيرات أيضًا أن القدرات المعرفية الجديدة ستظهر بشكل غير متوقع. لذلك ، على الرغم من أن LLMS ليست رائعة في التخطيط والتفكير من خلال المشكلات في الوقت الحالي ، إلا أن هذه القدرات يجب أن تظهر في مرحلة ما.
لا يوجد جدار
– سام التمان (sama) 14 نوفمبر 2024
في الأشهر القليلة الماضية ، أصبحت فرضية التحجيم تحت نيران كبيرة. يعتقد بعض العلماء أن تحجيم LLMs لن يؤدي أبدًا إلى AGI ، ويعتقدون أن كل القوة الإضافية التي نطعمها نماذج جديدة لم تعد تحقق نتائج. بدلاً من ذلك ، وصلنا إلى “جدار التحجيم” أو “حد التحجيم” حيث تنتج كميات كبيرة من الطاقة الإضافية والبيانات تحسينات صغيرة فقط في نماذج جديدة. معظم العلماء الذين شاركوا في دراسة AAAI على هذا الجانب من الحجة:
تؤكد غالبية المجيبين (76 ٪) أن “زيادة مقاربات الذكاء الاصطناعي الحالي” لإعطاء AGI “غير مرجح” أو “من غير المرجح للغاية” ، مما يشير إلى ما إذا كانت نماذج التعلم الآلي الحالية كافية لتحقيق الذكاء العام.
يمكن أن تنتج نماذج اللغة الكبيرة الحالية استجابات ذات صلة ومفيدة للغاية عندما تسير الأمور على ما يرام ، لكنها تعتمد على المبادئ الرياضية للقيام بذلك. يعتقد العديد من العلماء أننا سنحتاج إلى خوارزميات جديدة تستخدم المنطق والمنطق والمعرفة في العالم الحقيقي للوصول إلى حل إذا أردنا التقدم أقرب إلى هدف AGI. إليك اقتباس واحد حار على LLMS و AGI من ورقة 2022 من تأليف Jacob Browning و Yann Lecun.
لن يقترب نظام مدرب على اللغة وحدها أبدًا الذكاء الإنساني ، حتى لو تم تدريبه من الآن حتى موت الحرارة للكون.
ومع ذلك ، لا توجد طريقة حقيقية لمعرفة من هو هنا – ليس بعد. لسبب واحد ، لم يتم تعيين تعريف AGI في الحجر وليس الجميع يهدف إلى نفس الشيء. يعتقد بعض الناس أن AGI يجب أن ينتج استجابات تشبه الإنسان من خلال أساليب تشبه الإنسان-لذلك يجب عليهم مراقبة العالم من حولهم ومعرفة المشكلات بطريقة مماثلة لنا. يعتقد آخرون أن AGI يجب أن تركز أكثر على الاستجابات الصحيحة أكثر من الاستجابات التي تشبه الإنسان ، وأن الأساليب التي يستخدمونها لا ينبغي أن تهم.
ومع ذلك ، لا يهم حقًا إصدار AGI الذي تهتم به أو إذا كنت تعارض أو ضد فرضية التحجيم – لا يزال يتعين علينا تنويع جهودنا البحثية. إذا ركزنا فقط على تحجيم LLMs ، فسيتعين علينا أن نبدأ من جديد من الصفر إذا لم ينجح الأمر ، وقد نفشل في اكتشاف طرق جديدة أكثر فعالية أو كفاءة. يخشى العديد من العلماء في هذه الدراسة من أن الذكاء الاصطناعى التجاري والضجيج المحيط به سيتباطأون تقدمًا حقيقيًا – لكن كل ما يمكننا فعله هو الأمل في أن يتم التعامل مع مخاوفهم وأن كلا من فروع أبحاث الذكاء الاصطناعي يمكن أن يتعلموا التعايش والتقدم معًا. حسنًا ، يمكنك أيضًا أن تأمل أن تختفي فقاعة الذكاء الاصطناعي وأن جميع منتجات التكنولوجيا التي تعمل بالنيابة عن الذكاء الاصطناعى تختفي إلى غير ذي صلة ، إذا كنت تفضل ذلك.