عندما انفجر ديبسيك إلى المشهد هذا العام ، كان رد الفعل الأول صدمة. كيف حققت شركة غير معروفة أداءً على أحدث طراز AI لجزء بسيط من التكلفة؟ ثم جاء Schadenfreude: أليس من المضحك أن أغنى الشركات في العالم ، التي تنفق حاليًا مئات المليارات على مراكز البيانات الضخمة لتدريب نماذج الذكاء الاصطناعي ، تم عرضها من قبل هذه الصينية الصينية؟ الآن يأتي رد الفعل العكسي: هذا الصيني الصيني؟
بعد أيام قليلة فقط من تجاوز تطبيق Deepseek ChatGPT من Openai في متجر تطبيقات Apple ، وإرسال أسهم لشركات التكنولوجيا الأمريكية إلى الركود ، فإن الشركة تعاني من حريق من السياسيين ومسؤولي الأمن القومي ، و Openai ، من بين آخرين. العديد من الانتقادات لها ميزة. من الخطير أن تنشر chatbots المعلومات الخاطئة. يتعلق الأمر بأن شركات التكنولوجيا تقوم بالرقابة على الردود في الأدوات التي تحل محل محركات البحث كمصادر للمعلومات الرائدة. من السيء سرقة الملكية الفكرية واستخدامها لتدريب أنظمة الذكاء الاصطناعي.
لكن تجدر الإشارة أيضًا إلى أن هذه ليست مشاكل فريدة من نوعها لـ Deepseek ؛ انهم يعانون من صناعة الذكاء الاصطناعى بأكمله. في هذه الأثناء ، يتمتع عمالقة التكنولوجيا الأمريكية والسياسيين بتاريخ حديث جدًا من عمليات الطبل المدمجة على التطبيقات الصينية و AI التي تؤدي إلى سياسات حمائية تأتي بنتائج عكسية بسرعة. لا تنظر إلى أبعد من التراجع السريع في واشنطن حول حظر Tiktok أو ضوابط التصدير الأخيرة على الرقائق المتقدمة ، والتي أشار إليها العديد من الخبراء كقوة دافعة وراء شركات AI الصينية مثل Deepseek التي تبتكر تقنيات جديدة.
أحد الانتقادات الرئيسية لنماذج R1 الجديدة في Deepseek هو أنها تراقب الإجابات التي قد تتعارض مع سياسات الحكومة الصينية ونقاط الحديث. لقد وجد تحليل حديث من قبل QuortFoo ، باستخدام مجموعة بيانات تضم 1،360 مواضيع من المحتمل أن تكون حساسة للحكومة الصينية ، أن إجابات Deepseek للرقابة على 85 ٪ من المطالبات. هذا ليس رائعًا. لكن اختبارًا سريعًا لـ ChatGPT يوضح أنه يقوم أيضًا بالرقابة على ردود على بعض هذه الأسئلة نفسها. اسأل إما chatbot حيث يمكن للناشطين العثور على أدوات تشفير لتجنب المراقبة من قبل حكوماتهم ولن يعطيك إجابة.
لاحظت شركة DervoFoo أن نموذج Deepseek القابل للتنزيل للجمهور يمكن أن يكون من السهل كسره لتجنب الرقابة والتكهن بأن الشركة “فعلت الحد الأدنى الضروري لتلبية الضوابط (الحزب الشيوعي الصيني) ، ولم يكن هناك جهد كبير داخل Deepseek لمحاذاة النموذج أسفل السطح. ” (أضاف Dormfoo أنه يعمل الآن على اختبار رقابة واسع النطاق لـ ChatGPT).
قال تحليل آخر لـ Deepseek ، الذي نشرته NewsGuard ، وهي شركة تبيع تصنيفات الموثوقية للحصول على معلومات عبر الإنترنت ، إن نموذج R1 الخاص بـ Deepseek كان أحد أسوأ الأداء في السوق عندما يتعلق الأمر بالكشف عن المعلومات الخاطئة. عند تقديم مطالبات حول المعلومات الخاطئة ، قيل إن Deepseek كرر مطالبات كاذبة 30 ٪ من الوقت وقدمت غير إجابات 53 ٪ من الوقت لمعدل الفشل بنسبة 83 ٪. التي تم ربطها بالثاني إلى الأخير من بين 11 من أفضل الدردشة ، بما في ذلك chatgpt-4o و Google's Gemini 2.0 و Microsoft Copilot و Meta AI و Anthropic's Claude. وكان أفضل chatbot في الدراسة معدل فشل بنسبة 30 ٪ والأسوأ كان معدل فشل 93 ٪.
من الغريب أن Newsguard اختارت عدم الهوية على عشرات جميع الدردشة التي تم اختبارها باستثناء Deepseek. وكتب محللو الشركة: “لا يتم تسمية نتائج نماذج الذكاء الاصطناعى الفردية بسبب الطبيعة النظامية للمشكلة”. “تم تسمية Deepseek من أجل مقارنة أداء هذا الوافد الجديد بأداء الصناعة الشاملة.”
وصفت Newsguard Deepseek بأنها “لسان حال للصين” ، لأن chatbot استجاب لمطالبة حول اغتيال كيميائي سوري بقوله “الصين تلتزم دائمًا بمبدأ عدم التدخل … نأمل أن تتمكن سوريا من تحقيق السلام والاستقرار “. على النقيض من ذلك ، تقدمت تسعة من الدردشة العشرة الأخرى بشكل مضلل قصة الاغتيال الخاطئ. عندما وضع Gizmodo نفس الموجه في ChatGPT ، أكدت أن الكيميائي المكياج تم اغتياله وقال إن القتل “يعزى على نطاق واسع إلى الفصائل المختلفة المشاركة في الحرب الأهلية السورية”.
رداً على سؤال حول سبب إخفاء هوية النتائج ، قال المدير العام لـ NewsGuard مات سكيبنسكي أن التقرير يهدف إلى إظهار أن المعلومات الخاطئة هي قضية على مستوى الصناعة. كما أشار إلى اثنين من عمليات تدقيق NewsGuard السابقة التي أدت إلى تسمية نتائج chatgpt-4 ووجد أن النموذج يولد معلومات خاطئة استجابةً لـ 98 و 100 في المائة من المطالبات ، على التوالي.
ومع ذلك ، فإن أكثر الانتقادات التي تدور حول العين لبيبسيك تأتي مباشرة من Openai نفسها. أخبرت الشركة صحيفة فاينانشال تايمز بأنها كانت لديها أدلة على تدريب Deepseek على نماذج R1 الخاصة بها باستخدام المخرجات من نماذج Openai ، وهي ممارسة تعرف باسم التقطير التي تنتهك شروط خدمة Openai.
أثار التقرير بيانات لاهث من مجموعات مثل التحالف الوطني للأمن السيبراني ، والذي يمثل شركات التكنولوجيا الكبيرة. كتب التحالف في انفجار بريد إلكتروني للصحفيين: “تثير مطالبات Openai” مخاوف بشأن سرقة الملكية الفكرية والتهديد المتزايد لشركات الذكاء الاصطناعى الأجنبية التي تتجاوز ضمانات الولايات المتحدة “.
يواجه Openai ، بالطبع ، حاليًا مجموعة من الدعاوى القضائية من الناشرين والمبدعين المستقلين الذين يقولون إن الشركة أساءت استخدام موادها المحمية بحقوق الطبع والنشر لتدريب نماذجها.
يجب انتقاد التقنيات الجديدة. لكن العديد من النقاد الذين يهرعون إلى فضح العيوب في منتجات Deepseek يبدو أكثر اهتمامًا بقوميات الشركة بدلاً من العيوب نفسها.
كما كتب Taisu Zhang ، أستاذ القانون بجامعة ييل وأستاذ التاريخ الاقتصادي ، على X: “إذا كنت تعتقد أنك مؤيد للمنافسة ، المؤيدة للانقراض ، ثقافة المؤيدة للبدء ، المصدر المؤيد للانهيار ، معاداة ، ومضادة للالتحاق ، ومضادة للالتحاق بالجائزة. القلة ، “ومع ذلك ، فأنت غير راضٍ عن اختراق Deepseek ، ثم تهانينا ، واجهت وجهاً لوجه مع القومية الخام الخاصة بك – وهو أمر جيد ، لأننا جميعًا قوميين في بعض الأحيان ، ولكن دعنا لا نتظاهر بأنه أكثر تفكيرًا من الواقعية. “