يمكن أن يحصل الوضع الصوتي المتقدم لـ ChatGPT، والذي يسمح للمستخدمين بالتحدث مع chatbot في الوقت الفعلي، على هبة البصر قريبًا، وفقًا للكود المكتشف في أحدث إصدار تجريبي للمنصة. في حين أن OpenAI لم تؤكد بعد الإصدار المحدد للميزة الجديدة، فإن الكود الموجود في الإصدار التجريبي ChatGPT v1.2024.317 الذي رصدته Android Authority يشير إلى أن ما يسمى بـ “الكاميرا الحية” يمكن أن يكون وشيكًا.
عرضت شركة OpenAI لأول مرة إمكانات الرؤية الخاصة بوضع الصوت المتقدم لـ ChatGPT في شهر مايو، عندما تم إطلاق الميزة لأول مرة في مرحلة ألفا. خلال العرض التوضيحي الذي تم نشره في ذلك الوقت، تمكن النظام من التعرف على أنه كان ينظر إلى كلب من خلال تغذية كاميرا الهاتف، والتعرف على الكلب بناءً على التفاعلات السابقة، والتعرف على كرة الكلب، وربط علاقة الكلب بالكرة (على سبيل المثال لعب الجلب).
وقد حققت هذه الميزة نجاحًا فوريًا مع مختبري ألفا أيضًا. استخدمها مستخدم X Manuel Sainsily بشكل كبير في الإجابة على الأسئلة الشفهية حول قطته الجديدة بناءً على بث الفيديو بالكاميرا.
تحاول #ChatGPTوضع الصوت المتقدم الجديد الذي تم إصداره للتو في إصدار Alpha. يبدو الأمر وكأننا نواجه صديقًا واسع المعرفة، وهو ما كان مفيدًا للغاية في هذه الحالة – مما يطمئننا مع قطتنا الصغيرة الجديدة. يمكنه الإجابة على الأسئلة في الوقت الفعلي واستخدام الكاميرا كمدخل أيضًا! pic.twitter.com/Xx0HCAC4To
– مانويل سينسيلي (@ManuVision) 30 يوليو 2024
تم إصدار وضع الصوت المتقدم لاحقًا كإصدار تجريبي لمشتركي Plus وEnterprise في سبتمبر، وإن كان ذلك بدون إمكانياته المرئية الإضافية. وبطبيعة الحال، لم يمنع ذلك المستخدمين من الاندفاع في اختبار الحدود الصوتية لهذه الميزة. Advanced Voice، “يوفر محادثات طبيعية أكثر في الوقت الفعلي، ويسمح لك بالمقاطعة في أي وقت، ويستشعر مشاعرك ويستجيب لها”، وفقًا للشركة.
من المؤكد أن إضافة العيون الرقمية ستميز وضع الصوت المتقدم عن منافسي OpenAI الأساسيين Google وMeta، وكلاهما قدم في الأشهر الأخيرة ميزات محادثة خاصة بهما.
قد تكون Gemini Live قادرة على التحدث بأكثر من 40 لغة، لكنها لا تستطيع رؤية العالم من حولها (على الأقل حتى يبدأ مشروع Astra) – ولا تستطيع التفاعلات الصوتية الطبيعية الخاصة بـ Meta، والتي ظهرت لأول مرة في حدث Connect 2024 في سبتمبر، استخدام مدخلات الكاميرا.