مع قيام شركات مثل Google وAnthropic وOpenAI بتحديث وترقية نماذج الذكاء الاصطناعي الخاصة بها، فمن المؤكد أن الطريقة التي تتفاعل بها هذه الشركات مع المستخدمين ستتغير أيضًا. ومع ذلك، فإن التعود على النظام الجديد قد يصبح أمرًا مزعجًا للمستخدمين الذين يتعين عليهم بعد ذلك تعديل كيفية طرح استفساراتهم من أجل الحصول على النتائج التي يتوقعونها. وقد طور فريق بحثي تابع لشركة Apple طريقة جديدة لتبسيط عملية الانتقال إلى الترقية مع تقليل التناقضات بين الإصدارين بنسبة تصل إلى 40%.
وكجزء من دراستهم التي نشرت في 15 يوليو بعنوان “العضلات: استراتيجية تحديث النموذج لتطور متوافق مع برنامج ماجستير الحقوق”، يزعم الباحثون أنه عند ترقية نماذجهم، يميل المطورون إلى التركيز بشكل أكبر على رفع الأداء الإجمالي، بدلاً من التأكد من أن الانتقال بين النماذج يتم بسلاسة بالنسبة للمستخدم. ويشمل ذلك التأكد من إبقاء الانعكاسات السلبية، حيث يتنبأ النموذج الجديد بالإخراج غير الصحيح لعينة اختبار تم التنبؤ بها بشكل صحيح بواسطة النموذج الأقدم، عند الحد الأدنى.
ويرجع هذا، كما يزعم مؤلفو الدراسة، إلى أن كل مستخدم لديه غرائبه ومشاكله وطرقه الشخصية في التفاعل مع برامج المحادثة الآلية. وقد يصبح الاضطرار إلى تعديل وتكييف الطريقة التي يتفاعل بها المستخدم مع نموذج معين بشكل مستمر أمرًا مرهقًا ــ وهو ما يتناقض مع تجربة المستخدم التي ترغب فيها شركة أبل.
ويزعم فريق البحث أن التنبؤات الخاطئة التي يصدرها الذكاء الاصطناعي يجب أن تظل بين الإصدارات، وكتبوا: “هناك قيمة في الاتساق عندما يكون كلا النموذجين غير صحيحين. قد يكون المستخدم قد طور استراتيجيات للتعامل مع كيفية التفاعل مع نموذج عندما يكون غير صحيح”.
شركة آبل تقدم MUSCLE
استراتيجية تحديث النموذج لتطور ماجستير القانون المتوافق
يتم تحديث نماذج اللغة الكبيرة (LLMs) بشكل متكرر بسبب تغييرات البيانات أو البنية التحتية لتحسين أدائها. عند تحديث النماذج، يركز المطورون غالبًا على زيادة الأداء العام… pic.twitter.com/ATm2zM4Poc
— AK (@_akhaliq) 15 يوليو 2024
ولمعالجة هذه المشكلة، قام الباحثون أولاً بتطوير مقاييس لقياس درجة الانحدار بين النماذج، ثم قاموا بتطوير استراتيجية لتقليل حدوثها. وكانت النتيجة هي MUSCLE، وهي استراتيجية لا تتطلب من المطورين إعادة تدريب النموذج الأساسي بالكامل، بل تعتمد بدلاً من ذلك على استخدام محولات التدريب. محولات وحدات الذكاء الاصطناعي الصغيرة التي يمكن دمجها في نقاط مختلفة على طول LLM الإجمالي.
يمكن للمطورين بعد ذلك ضبط هذه الوحدات النمطية المحددة بدلاً من النموذج بأكمله. وهذا يمكّن النموذج ككل من أداء مهام مميزة مقابل جزء بسيط من تكلفة التدريب وبزيادة صغيرة فقط في عدد المعلمات. إنها في الأساس مكونات إضافية لنماذج اللغة الكبيرة التي تسمح لنا بضبط أقسام محددة من الذكاء الاصطناعي الإجمالي بدلاً من الشيء بأكمله.
قام فريق البحث بترقية أنظمة LLM بما في ذلك Meta's Llama و Microsoft's Phi كجزء من دراستهم، باستخدام استعلامات رياضية محددة كعينات، ووجدوا أن الانقلابات السلبية حدثت بنسبة تصل إلى 60% من الوقت. من خلال دمج استراتيجية MUSCLE، لم يتمكن الفريق من القضاء تمامًا على الانقلابات السلبية، لكنهم تمكنوا من تقليل حدوثها بنسبة تصل إلى 40% مقارنة بالمجموعة الضابطة.