يعتقد العديد من الأشخاص أن Microsoft ستوفر في النهاية إصدارًا من برنامج Copilot الذي سيتم تشغيله ضمن نظام Windows مباشرة على جهاز الكمبيوتر الخاص بك. ربما تكون مايكروسوفت قد طرحت يدها للتو لنموذج جديد للذكاء الاصطناعي، أو LLM، المصمم خصيصًا للتشغيل على الأجهزة المحلية.
قدمت مايكروسوفت يوم الاثنين “Phi-3-mini”، وهو نموذج لغة معلمة يبلغ 3.8 مليار والذي تدعي الشركة أنه ينافس أداء ChatGPT 3.5 الأقدم قليلاً وMixtral 8x7B. تحمل الورقة عنوان “التقرير الفني لـ Phi-3: نموذج لغة ذو قدرة عالية محليًا على هاتفك”، وهو دليل واضح على أن Microsoft لديها الآن LLM يمكنه العمل مباشرة على جهاز الكمبيوتر الخاص بك.
لم تقل Microsoft أن Phi-3-mini سيكون مساعد الطيار التالي، والذي سيتم تشغيله محليًا على جهاز الكمبيوتر الخاص بك. ولكن هناك حجة يجب إثباتها، وأن لدينا فكرة عن مدى نجاحها.
1.) الذكاء الاصطناعي المحلي مهم
إنها حجة مألوفة: إذا قمت بإرسال طلب بحث إلى Bing، أو Google Gemini، أو Claude، أو Copilot، فإنه يعيش في السحابة. قد يكون هذا محرجًا (“هل هذا الثؤلول سيئ”؟) أو حساس (“هل يمكن أن أواجه مشكلة بسبب سرقة البريد؟”) أو شيئًا لا تريد تسريبه على الإطلاق مثل قائمة بيانات البنك.
ترغب الشركات في طرح أسئلة حول بياناتها عبر أنظمة الذكاء الاصطناعي مثل Copilot، ولكن لا توجد إصدارات “داخلية” من Copilot حتى الآن. يعد الإصدار المحلي من Copilot خيارًا ضروريًا تقريبًا في هذه المرحلة.
2.) Phi-3-mini صغير الحجم، وهذا جيد
تتطلب العديد من برامج LLM المحلية ما لا يقل عن 8 غيغابايت من ذاكرة الوصول العشوائي (RAM) والعديد من غيغابايت من مساحة التخزين للملفات الضرورية على جهاز الكمبيوتر وحده – وهذا على افتراض أن برامج LLM قد تم “تكميمها” أو ضغطها. هناك سبب وراء تشغيل برنامج Copilot في السحابة. ذلك لأن سحابة Microsoft Azure تتمتع بالحوسبة والتخزين اللازمين لإيوائها.
هذا هو أحد أهم أسطر الورقة: “بفضل حجمها الصغير، يمكن تكميم phi3-mini إلى 4 بتات بحيث تشغل فقط ≈ 1.8 جيجابايت من الذاكرة”، كما تقول. “لقد اختبرنا الكمية
النموذج من خلال نشر phi-3-mini على iPhone 14 مع شريحة A16 Bionic التي تعمل أصلاً على الجهاز وغير متصلة بالإنترنت بالكامل مما يحقق أكثر من 12 رمزًا مميزًا في الثانية.
ما يعنيه هذا هو أن أجهزة الكمبيوتر التي تحتوي على ذاكرة إضافية تبلغ 1.8 جيجابايت يمكنها تشغيل إصدار محلي من برنامج Copilot. هذا عدد أجهزة كمبيوتر أكثر بكثير من الوضع الراهن، بما في ذلك على الأرجح أجهزة الكمبيوتر القديمة المزودة بذاكرة وصول عشوائي (RAM) سعة 8 جيجابايت. وإذا كان جهاز iPhone قادرًا على تشغيله، فمن المحتمل أن معظم أجهزة الكمبيوتر يمكنها ذلك أيضًا.
تقوم LLM ببث البيانات مثل الطابعة النقطية، لذا فإن اثني عشر رمزًا في الثانية يبلغ حوالي 48 حرفًا في الثانية – ليس رائعًا، ولكنه ليس سيئًا للغاية.
3.) أداءه جيد أيضًا، ولكنه ليس جيدًا جدًا
لا تزال Microsoft ترغب في إغراء الأشخاص باستخدام Copilot في السحابة، والدفع مقابل الاشتراكات مثل Copilot Pro. وتستغرق Microsoft بعض الوقت لإظهار كيفية أداء Phi-3-mini تمامًا مثل أداء LLMs الأخرى. لكن وجود عدد أقل من المعلمات يعني أن نموذج الذكاء الاصطناعي لا “يعرف” بقدر ما يعرفه طلاب ماجستير إدارة الأعمال الأكثر تطوراً.
لكن مايكروسوفت لديها الحل. تشير الورقة البحثية إلى أن “النموذج ببساطة ليس لديه القدرة على تخزين قدر كبير جدًا من “المعرفة الواقعية”، وهو ما يمكن رؤيته على سبيل المثال مع انخفاض الأداء في TriviaQA (المعياري).” “ومع ذلك، نعتقد أنه يمكن حل هذا الضعف من خلال تعزيزه بمحرك بحث.”
بنج لانقاذ!
4.) إنه شهر قبل Microsoft Build.
سيبدأ مؤتمر مطوري Microsoft خلال شهر واحد. وهذا يمنح مايكروسوفت الوقت الكافي للحصول على نسخة من برنامج Copilot تعمل فوق Phi-3-mini لتوضيحها للمطورين والمستخدمين قبل أن تبدأ في 21 مايو. ومن المفترض أن يكون ذلك متسعًا من الوقت لإعداد نموذج أولي واختبار بعض الاستعلامات.
من المحتمل أن يكون مساعد الطيار هو نجم العرض. هل سنحصل على جهاز يعمل أصلاً على جهاز الكمبيوتر الخاص بك؟ أعتقد أنه من المحتمل أكثر بكثير مما كان عليه من قبل.