لقد انتقلنا رسميًا إلى Spooky Season هذا الأسبوع، وبين جولة تمويل OpenAI البالغة 6.6 مليون دولار، ومفاجأة LLM من Nvidia، وبعض نظارات Meta Smart التي تنتهك الخصوصية، رأينا عددًا مخيفًا من التطورات في مجال الذكاء الاصطناعي. فيما يلي خمسة من أكبر الإعلانات.
حصلت OpenAI على 6.6 مليار دولار في جولة التمويل الأخيرة
يستمر وجود Sam Altman الساحر على قدم وساق مع الأخبار هذا الأسبوع التي تفيد بأن OpenAI قد حصلت على استثمار إضافي بقيمة 6.6 مليار دولار كجزء من جولة التمويل الأخيرة. وانضم إلى المستثمرين الحاليين مثل Microsoft وKhosla Ventures الوافدون الجدد SoftBank وNvidia. تبلغ قيمة شركة الذكاء الاصطناعي الآن 157 مليار دولار، مما يجعلها واحدة من أغنى الشركات الخاصة على وجه الأرض. وإذا تم تنفيذ خطة إعادة الهيكلة الهادفة للربح التي اقترحتها شركة OpenAI، فإن هذا التقييم من شأنه أن يمنح ألتمان أكثر من 150 مليار دولار في هيئة أسهم، مما يجعله على قائمة أغنى عشرة أشخاص على هذا الكوكب. بعد أخبار التمويل، طرحت OpenAI Canvas، وهي ميزة تعاونية لـ Anthropic's Artifacts
أصدرت Nvidia للتو شهادة LLM مفتوحة المصدر لمنافسة GPT-4
تحقق Nvidia قفزة من أجهزة الذكاء الاصطناعي إلى برامج الذكاء الاصطناعي بإصدار LVNM 1.0 هذا الأسبوع، وهو نموذج لغة كبير مفتوح المصدر حقًا يتفوق في مجموعة متنوعة من مهام الرؤية واللغة. تدعي الشركة أن عائلة الطرازات الجديدة، بقيادة LVNM-D-72B ذات 72 مليار معلمة، يمكنها منافسة GPT-4o. ومع ذلك، فإن Nvidia تضع LVNM ليس كمنافس مباشر لبرامج LLM الأخرى من الدرجة الأولى، ولكن كمنصة يمكن للمطورين الآخرين من خلالها إنشاء روبوتات الدردشة والتطبيقات الخاصة بهم.
يتحدث برنامج Gemini Live من Google الآن ما يقرب من أربعين لغة
يبدو أن القدرة على التحدث مباشرة مع برنامج الدردشة الآلي الخاص بك هي الميزة الجديدة التي لا بد من توفرها. أعلنت جوجل هذا الأسبوع أنها تعمل على توسيع خدمة Gemini Live لتتمكن من التحدث بما يقرب من أربعين لغة غير الإنجليزية، بدءًا بالفرنسية والألمانية والبرتغالية والهندية والإسبانية. وكشفت مايكروسوفت أيضًا عن ميزة مماثلة لبرنامج Copilot، يطلق عليها اسم Copilot Voice، والتي تدعي الشركة أنها “الطريقة الأكثر بديهية وطبيعية للعصف الذهني أثناء التنقل”. إنهم ينضمون إلى وضع الصوت المتقدم في ChatGPT والتفاعلات الصوتية الطبيعية في Meta في السماح للمستخدمين بالتحدث مع هواتفهم، وليس معهم فقط.
حاكم ولاية كاليفورنيا يستخدم حق النقض ضد مشروع قانون سلامة الذكاء الاصطناعي الموسع
كل القتال حول SB 1047، قانون كاليفورنيا للابتكار الآمن والآمن للنماذج الاصطناعية الحدودية، كان هباءً، حيث استخدم الحاكم جافين نيوسوم حق النقض ضد مشروع قانون سلامة الذكاء الاصطناعي هذا الأسبوع. وفي رسالة إلى المشرعين، قال إن مشروع القانون يركز بشكل قصير النظر على أكبر النماذج اللغوية وأن “النماذج المتخصصة الأصغر قد تظهر على قدم المساواة أو حتى أكثر خطورة من النماذج التي يستهدفها SB 1047”.
يقوم المتسللون بتحويل نظارات Meta الذكية إلى آلة جمع المعلومات تلقائيًا
تمكن اثنان من طلاب علوم الكمبيوتر بجامعة هارفارد من تعديل زوج من نظارات Meta الذكية المتوفرة تجاريًا حتى يتمكنوا من التعرف على أي شخص يدخل في مجال رؤيتهم والبحث عنه. 404 وسائل الإعلام ذكرت هذا الاسبوع. تم تصميم النظارات، وهي جزء من تجربة I-XRAY، لالتقاط صور للغرباء في الشارع، وتشغيل تلك الصور من خلال برنامج التعرف على الصور PimEyes لتحديد الموضوع، ثم استخدام تلك المعلومات الأساسية للبحث عن معلوماتهم الشخصية (أي معلوماتهم الشخصية). رقم الهاتف وعنوان المنزل) على مواقع وساطة البيانات التجارية.
“لاستخدامها، كل ما عليك فعله هو ارتداء النظارات، وبعد مرورك بالقرب من الأشخاص، ستكتشف النظارات عندما يكون وجه شخص ما في الإطار،” أوضح الزوجان في عرض فيديو نُشر على X. “بعد بضع ثوانٍ، تظهر المعلومات الشخصية على هاتفك.” إن الآثار المترتبة على الخصوصية لمثل هذا النظام مرعبة. ليس لدى الثنائي أي نية لإصدار كود المصدر علنًا، ولكن الآن بعد أن أظهروا أنه يمكن القيام بذلك، ليس هناك الكثير لمنع الآخرين من إجراء هندسة عكسية له.