تعمل شركة آبل على تطوير إصدار جديد من المساعد الصوتي الخاص بها “سيري“، ومن المنتظر إعلانه منتصف العام الجاري خلال مؤتمر المطورين القادم للشركة WWDC 2024.
ووفقًا لآخر التسريبات، فإن المساعد الصوتي “سيري” سيشهد إضافة الكثير من مزايا الذكاء الاصطناعي لإجراء المحادثات باللغة الطبيعية، بالإضافة إلى توليد المحتوى.
ولن تعتمد آبل على نماذج ذكاء اصطناعي خارجية، وإنما ستكون تلك المزايا موجودة استنادًا إلى نموذج خاص بالشركة تطوره داخليًا، وهو نموذج ينتمي إلى نماذج اللغات الكبيرة مثل GPT من OpenAI ونموذج Gemini من جوجل.
ووفقًا لتسريبات أخيرة، فإن آبل ستضيف المزيد من خيارات التخصيص في سيري، مع تعزيز خيارات إدارة الأجهزة، وإمكانية الربط بخدمات آبل المختلفة أو الخدمات الخارجية لتنفيذ مهام محددة باستخدام المساعد الصوتي.
وكانت آبل قد أطلقت بعض مشاريع الذكاء الاصطناعي المفتوحة المصدر خلال الآونة الأخيرة، ويقال إن أحدها يتمتع بقدرات تضاهي قدرات نموذج GPT-4 من OpenAI.
وتشير الأبحاث الأخيرة التي نشرها العلماء في آبل إلى بعض الإنجازات التي تحققها الشركة، ومنها التوصل إلى تقنية لاستخدام ذواكر التخزين في هواتف آيفون لتشغيل نماذج الذكاء الاصطناعي، وتطوير أدوات لتشغيل تطبيقات الذكاء الاصطناعي بكفاءة في الأجهزة التي تعمل بمعالجات آبل سيليكون.
ومن جهة أخرى، فإن أمازون تعمل على نموذج ذكاء اصطناعي لمساعدها الصوتي أليكسا، وتسعى جوجل إلى إدماج روبوت Bard في مساعدها الشخصي في أندرويد، في حين تعمل OpenAI على جعل ChatGPT يعمل كمساعد صوتي افتراضي في أندرويد، وتدمج مايكروسوفت مساعد Copilot بدرجة عميقة في نظام ويندوز.
تابعنا