انطلق أمس مؤتمر جوجل السنوي للمطورين (Google I/O 2024)، الذي هيمن الذكاء الاصطناعي على فعالياته، إذ أعلنت الشركة إدماجه في جميع منتجاتها تقريبًا، بدءًا من محرك البحث، الذي حافظ على شكله التقليدي لعقود، ومرورًا بنظام التشغيل أندرويد 15، ووصولًا إلى روبوت (Gemini) بالطبع.
يمكننا القول إن الكلمة الرئيسية أمس في مؤتمر (Google I/O 2024) جاءت كرد قوي من جوجل على خطوة شركة (OpenAI) الأخيرة في محاولة التفوق عليها، حيث كشفت (OpenAI) قبل المؤتمر بيوم واحد فقط عن نموذجها (GPT-4o) الجديد المجاني للجميع، والإمكانيات التي يجلبها إلى روبوت (ChatGPT).
فقد شهد المؤتمر أمس أجواءً من الثقة تعكس إيمان جوجل بمكانتها المهيمنة في مجال الذكاء الاصطناعي، وبدا (ساندرا بيتشاي) الرئيس التنفيذي لجوجل واثقًا تمامًا وسعيدًا بالمنافسة المحتدمة في مجال الذكاء الاصطناعي، مُشيرًا إلى العديد من التحديثات القادمة في Gemini، وأندرويد وبحث جوجل، وغيرها من الخدمات والتطبيقات.
وعندما اعتلى (بيتشاي) المسرح أمس ليختم الكلمة الرئيسية، أعلن أن كلمة (الذكاء الاصطناعي) قد ذُكرت 120 مرة خلال العرض التقديمي، وقد برّر بيتشاي هذا الأمر بقوله: “شعرت أن أحدهم قد يحصي عدد مرات ذكر الذكاء الاصطناعي اليوم، وبما أن موضوعنا الرئيسي هو ترك جوجل تقوم بالعمل نيابة عنك، فقد استعنا بروبوت (Gemini) لحساب ذلك لتوفير جهدك ووقتك”. ثم تغير العدد إلى 121 مع نهاية الكلمة الرئيسية.
إليك ملخصًا لأهم الإعلانات التي كشفت عنها جوجل خلال مؤتمرها السنوي للمطورين (Google I/O 2024):
1- الكشف عن نموذج (Gemini 1.5 Flash):
لن يكتمل مؤتمر جوجل للمطورين دون الكشف عن نموذج لغوي كبير جديد على الأقل، وهذا العام قدمت جوجل نموذج الذكاء الاصطناعي الجديد (Gemini 1.5 Flash)، وهو نموذج يقدم القدرات نفسها التي يقدمها نموذج(Gemini 1.5 Pro) – الذي أعلنته خلال شهر فبراير الماضي – ولكنه أسرع وأخف وزنًا وأقل تكلفة في التشغيل.
لذلك يتفوق نموذج (Gemini 1.5 Flash) في تلخيص النصوص، وتطبيقات الدردشة، والتعليق على الصور ومقاطع الفيديو، واستخراج البيانات من المستندات والجداول الطويلة، وغيرها الكثير من المهام.
واعتمدت جوجل في تدريبها لنموذج (Gemini 1.5 Flash) على أسلوب أطلقت عليه اسم (Distillation)، وهو أسلوب يعتمد على نقل المعرفة والقدرات من نموذج لغوي كبير مثل Gemini 1.5 Pro إلى نموذج أصغر مثل Gemini 1.5 Flash.
إذ يتعلم النموذج الأصغر من خلال تحليل مخرجات النموذج الأكبر، مما يسمح له بتحسين أدائه دون الحاجة إلى تدريبه على كميات هائلة من البيانات، الأمر الذي يجعله يستخدم موارد حاسوبية أقل ووقتًا أقصر، وهنا تقل تكلفة التشغيل.
لذلك يُعدّ نموذج (Gemini 1.5 Flash) هو المنافس الأول لنموذج (GPT-4o) الذي قدمت شركة OpenAI يوم الاثنين الماضي.
يتوفر نموذج (Gemini 1.5 Flash) حاليًا في معاينة عامة عبر استوديو الذكاء الاصطناعي من جوجل (Google AI Studio)، ومنصة Vertex AI.
2- توسيع إمكانيات نموذج (Gemini Nano) للهواتف الذكية:
أعلنت جوجل أمس توسيع قدرات (Gemini Nano)، وهو نموذج الذكاء الاصطناعي المُصمم للتشغيل في الهواتف الذكية، إذ أصبح يمكنه معالجة الصور بالإضافة إلى النصوص.
وسيصل التحديث الجديد أولًا بالطبع إلى هواتف Google Pixel من خلال التطبيقات التي تستخدم نموذج (Gemini Nano) المتعدد الوسائط لتتمكن من فهم ما تراه الكاميرا، وكذلك الاستماع للأصوات المختلفة، إضافة إلى فهم لغات تفاعل البشر الطبيعية.
3- تحديثات جديدة في نموذج Gemma:
كشفت جوجل أمس أيضًا عن نموذج (Gemma 2.0)، وهو الجيل الثاني من نماذج الذكاء الاصطناعي المفتوحة، المصممة خصوصًا لدعم الابتكار المسؤول، وذلك استجابة للمطالبات المتكررة من المطورين بزيادة حجم النموذج.
يتميز نموذج (Gemma 2) بهندسة معمارية جديدة تُتيح له تحقيق أداء وكفاءة استثنائيين، مع إتاحة خيارات متنوعة من حيث الحجم ليناسب مختلف الاحتياجات.
أضافت جوجل إلى نموذج (Gemma 2.0) ما يصل إلى 27 مليار معامل، وقد صممته ليعمل بكفاءة عبر وحدات معالجة الرسومات من الجيل التالي من (إنفيديا) Nvidia، كما يمكن تشغيله بسلاسة عبر مضيف TPU واحد، ومنصة Vertex AI.
كما أضافت جوجل نموذج (PaliGemma) إلى عائلة Gemma، وهو أول نموذج لغة ورؤية مستوحى من PaLI-3. كما طورت مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤولة بإضافة (LLM Comparator) لتقييم جودة مخرجات النماذج بدقة كبرى.
تُعد هذه خطوة هائلة تُعزّز قدرات نموذج (Gemma) بنحو كبير، وتُتيح للمطورين إمكانيات جديدة واسعة النطاق في مجالات معالجة اللغة الطبيعية والذكاء الاصطناعي.
4- الكشف عن (Project Astra).. رؤية جوجل للمساعدات الصوتية في عالم الذكاء الاصطناعي:
كشفت جوجل أمس أيضًا النقاب عن مشروعها المستقبلي (Project Astra)، الذي يهدف إلى تغيير مفهوم المساعدات الصوتية بالكامل. يعتمد هذا المشروع على نموذج ذكاء اصطناعي متطور قادر على فهم العالم من خلال تحليل فوري لكل ما تلتقطه عدسات الكاميرات في الهواتف الذكية أو النظارات الذكية.
يُمكن للمساعد الذكي في مشروع (Project Astra) فهم كل ما تراه الكاميرا وتحليله، بحيث يتمكن من الإجابة عن أي تساؤل يطرحه المستخدم عن طريق الأوامر الصوتية، مما يفتح المجال أمام إمكانيات واسعة للتفاعل والتواصل.
ففي الفيديو الذي عرضته جوجل، تظهر موظفة وهي تتفاعل مع (Gemini) – الذي سيحل محل مساعد جوجل في الهواتف الذكية – باستخدام الأوامر الصوتية. حيث وجهت الموظفة عدسة الكاميرا نحو مكبر صوت وسألت عن اسم جزء معين منه أشارت إليه بسهم ليجيب (Gemini) فورًا بأن الجزء المشار إليه هو السماعة.
كما وجهت الموظفة عدسة الكاميرا نحو شاشة حاسوب يظهر فيها سطور أكواد برمجية، وسألت عن وظيفة هذا الكود، وقدم (Gemini) شرحًا دقيقًا لكيفية عمل الكود، موضحًا أنه يتعلق بطريقة إنشاء التشفير وفكه.
5- إطلاق مزايا البحث المدعومة بالذكاء الاصطناعي للجميع:
إذا كنت قد اشتركت سابقًا في تجربة البحث التوليدية (SGE) عبر منصة (Search Labs)، فأنت على دراية بمزية (نظرة عامة بالذكاء الاصطناعي) AI overview، التي تعرض ملخصات ذكية تظهر أعلى نتائج البحث، لتقديم إجابات مختصرة وحوارية على استفسارات المستخدمين.
أعلنت جوجل إتاحة هذه المزية للجميع في الولايات المتحدة بدءًا من أمس وذلك بعد عام من تجربتها، وستطلقها في باقي البلدان خلال وقت قريب.
ووفقًا لجوجل، فقد اُستخدمت مزية ( AI overview) مليارات المرات منذ إتاحتها في مختبر البحث، مما أدى إلى زيادة اعتماد المستخدمين على البحث وتحسين رضاهم عن النتائج. وتُهدف هذه المزية إلى تعزيز تجربة البحث، ولا تظهر إلا عندما تُضيف قيمة حقيقية إلى نتائج البحث.
كما أعلنت جوجل أمس أيضًا مزية جديدة أخرى في محرك البحث، وهي صفحات النتائج المنظمة بالذكاء الاصطناعي، التي تستخدم الذكاء الاصطناعي لإنشاء عناوين فريدة تُناسب احتياجات بحث المستخدم بنحو أفضل.
وستطرح جوجل هذه المزية تدريجيًا في عمليات البحث باللغة الإنجليزية في الولايات المتحدة، بدءًا من الموضوعات المهمة مثل المطاعم والوصفات، ثم الأفلام والكتب والفنادق والتسوق والمزيد.
بالإضافة إلى ذلك؛ أعلنت جوجل بعض المزايا الجديدة في محرك البحث التي ستختبرها أولًا عبر منصة (Search Labs)، وأبرزها: تبسيط اللغة المستخدمة في الملخص، وتنظيم نتائج البحث، واستخدام الفيديو في البحث مما يُعزز قدرات البحث المرئي، وغير ذلك.
6- مزايا الذكاء الاصطناعي في نظام أندرويد:
كشفت جوجل أمس عن مجموعة من المزايا الجديدة التي تستند في عملها إلى الذكاء الاصطناعي القادمة إلى هواتف أندرويد خلال المدة القادمة، ومنها:
-
تحديث مزية (Circle to Search):
أصبحت مزية (Circle to Search) – التي أطلقتها جوجل مطلع العام الحالي – أكثر فائدةً للطلاب، إذ تُتيح لهم الآن حلّ المسائل الرياضية والمعادلات المُعقدة بمجرد رسم دائرة حولها في شاشة الهاتف. وتدعم المزية الجديدة مواضيع واسعة من الرياضيات إلى الفيزياء، مع إمكانية معالجة الصيغ الرمزية والرسومات البيانية في المستقبل.
طورت جوجل هذه المزية باستخدام نموذج الذكاء الاصطناعي LearnLM، المخصص للاستخدام في الأغراض التعليمية، الذي أعلنته أمس أيضًا.
ولمعرفة المزيد عن نموذج (LearnLM)، يمكنك الاطلاع على مقال: “جوجل تكشف عن نماذج الذكاء الاصطناعي LearnLM للأغراض التعليمية“.
-
سيحل (Gemini) محل مساعد جوجل في هواتف أندرويد
سيحلّ روبوت (Gemini) محل مساعد جوجل ليصبح المساعد الافتراضي الرسمي في نظام أندرويد، ويمكن الوصول إليه بسهولة من خلال الضغط المطول على زر التشغيل، وسيُدمج لاحقًا في مختلف الخدمات والتطبيقات لتقديم دعم متعدد الوسائط عند الطلب.
-
تطوير خدمة TalkBack لمساعدة ضعاف البصر والمكفوفين:
طورت جوجل خدمة (TalkBack) التي تصف لمستخدمي هواتف أندرويد من ضعاف البصر والمكفوفين المحتوى الظاهر في شاشات هواتفهم، لتصبح قادرة على استخدام الإمكانيات الجديدة لنموذج (Gemini Nano) لتصف المحتوى المرئي الظاهر في الشاشة بدقة.
ومن ثم؛ ستستخدم خدمة (TalkBack) قدرات نموذج (Gemini Nano) المتطورة لتتمكن من تحليل الصور وتقديم وصف نصي دقيق لها، دون الحاجة للاتصال بالإنترنت، إذ إن هذا النموذج يعمل في الهواتف مباشرة، لذلك لن يحتاج إلى الاتصال بخوادم جوجل لإجراء معالجة البيانات.
-
كشف المكالمات الاحتيالية بالذكاء الاصطناعي
أعلنت جوجل أمس أيضًا عملها على مزية جديدة تعتمد على نموذج Gemini Nano لحماية مستخدمي هواتف أندرويد من المكالمات الاحتيالية، إذ ستحلل هذه المزية المحادثات للكشف عن أي نمط احتيالي أو ضار، وترسل تنبيهًا للمستخدم أثناء المكالمة حتى يتمكن من حماية نفسه في الوقت المناسب.