تحاول أنثروبور ، شركة الذكاء الاصطناعي خلف Chatbot Claude ، أن تنشر بقعة كرجل جيد في مساحة الذكاء الاصطناعي. بعد أن كانت شركة AI الرئيسية الوحيدة التي ترفع دعمها خلف مشروع قانون السلامة من الذكاء الاصطناعي في كاليفورنيا ، حصلت الشركة على عنوان من Semafor بفضل رفضها الظاهر للسماح باستخدام نموذجها في مهام المراقبة ، والتي تنطلق من إدارة ترامب.
وفقًا للتقرير ، شعرت وكالات إنفاذ القانون بالخنق من سياسة استخدام الأنثروبور ، والتي تتضمن قسمًا يقيد استخدام تقنيتها من أجل “العدالة الجنائية أو الرقابة أو المراقبة أو محظورات إنفاذ القانون”. ويشمل ذلك حظر استخدام أدوات الذكاء الاصطناعى “لاتخاذ قرارات بشأن تطبيقات العدالة الجنائية” ، أو “الهدف أو تتبع الموقع المادي للشخص ، أو الحالة العاطفية ، أو التواصل دون موافقته” ، و “تحليل أو تحديد محتوى محدد للرقابة نيابة عن منظمة حكومية”.
كانت هذه مشكلة حقيقية للوكالات الفيدرالية ، بما في ذلك مكتب التحقيقات الفيدرالي ، والخدمة السرية ، وإنفاذ الهجرة والجمارك ، لكل Semafor ، وخلق توترات بين الشركة والإدارة الحالية ، على الرغم من أن الأنثروبور تتيح للوصول إلى الحكومة الفيدرالية وصولها إلى chatbot Claude و Suite من أدوات AI 1 دولار فقط. وفقًا للتقرير ، فإن سياسة الأنثروبور عريضة مع عدد أقل من المنافسين. على سبيل المثال ، تقيد سياسة استخدام Openai “المراقبة غير المصرح بها للأفراد” ، والتي قد لا تستبعد استخدام التكنولوجيا للمراقبة “القانونية”.
لم يرد Openai على طلب للتعليق.
أوضح مصدر مطلع على هذه المسألة أن كلود من الأنثروبور يتم استخدامه من قبل وكالات لأغراض الأمن القومي ، بما في ذلك للأمن السيبراني ، ولكن سياسة استخدام الشركة تستخدم الاستخدامات المتعلقة بالمراقبة المحلية.
قال ممثل عن الأنثروبور إن الشركة طورت كلودجوف على وجه التحديد لمجتمع الاستخبارات ، وقد تلقت الخدمة ترخيصًا “مرتفعًا” من برنامج إدارة المخاطر والترخيص الفيدرالي (FEDRAMP) ، مما يتيح استخدامها مع أعباء العمل الحكومية الحساسة. وقال الممثل إن كلود متاح للاستخدام عبر مجتمع الاستخبارات.
قام أحد الإدارة الرسميين بالانتباه إلى Semafor أن سياسة الأنثروبور تصدر حكمًا أخلاقيًا حول كيفية قيام وكالات إنفاذ القانون بعملها ، وهو ، مثل … بالتأكيد؟ ولكن أيضًا ، إنها مسألة قانونية بقدر ما هي مسألة أخلاقية. نحن نعيش في دولة مراقبة ، يمكن لإنفاذ القانون أن يقوموا بمسح الأشخاص دون أوامر في الماضي ، وسوف يستمر بالتأكيد في القيام بذلك في المستقبل.
الشركة التي تختار عدم المشاركة في ذلك ، إلى الحد الذي يمكن أن تقاومه ، تغطي مؤخرتها بنفس القدر الذي تخرج من موقف أخلاقي. إذا كانت الحكومة الفيدرالية تزعجًا أن سياسة استخدام الشركة تمنعها من إجراء المراقبة المحلية ، فربما تكون الوجبات السريعة هي أن الحكومة تقوم بالمراقبة المحلية واسعة النطاق ومحاولة أتمتة أنظمة الذكاء الاصطناعى.
على أي حال ، فإن الموقف المبدئي للأنثروبور نظريًا هو الأحدث في جهوده لوضع نفسه كشركة AI المعقولة. في وقت سابق من هذا الشهر ، دعمت فاتورة سلامة الذكاء الاصطناعى في كاليفورنيا والتي تتطلب من شركات الذكاء الاصطناعى الأخرى الخضوع لمتطلبات السلامة الجديدة والأكثر صرامة لضمان عدم عرض النماذج لخطر إلحاق ضرر كارثي. كانت الأنثروبور هي اللاعب الرئيسي الوحيد في مساحة الذكاء الاصطناعى لرمي ثقله خلف مشروع القانون ، الذي ينتظر توقيع الحاكم Newsom (الذي قد يأتي أو لا يأتي ، لأنه في السابق حق النقض على فاتورة مماثلة). الشركة أيضًا في العاصمة ، حيث تضع تبنيًا سريعًا من الذكاء الاصطناعي مع الدرابزين (ولكن التركيز على الجزء السريع).
ربما يكون موقعها كشركة Chill AI تقوضها بعض الشيء من حقيقة أنها قصيحة الملايين من الكتب والأوراق التي استخدمتها لتدريب نموذج لغتها الكبير ، وانتهاك حقوق حاملي حقوق الطبع والنشر وترك المؤلفين عاليين وجافون دون الدفع. ستضع تسوية بقيمة 1.5 مليار دولار التي تم الوصول إليها في وقت سابق من هذا الشهر بعض المال على الأقل في جيوب الأشخاص الذين أنشأوا بالفعل الأعمال المستخدمة لتدريب النموذج. وفي الوقت نفسه ، كانت قيمة الأنثروبور تقدر بحوالي 200 مليار دولار في جولة تمويل حديثة من شأنها أن تجعل هذه العقوبة التي طلبت المحكمة في خطأ تقريب.