يؤكد أحدث تقرير لـ Openai حول استخدام AI الضار على حبل المشتركة بأن شركات الذكاء الاصطناعى تسير بين منع سوء الاستخدام في chatbots ومستخدمي المستخدمين بأن خصوصيتهم محترمة.
يسلط التقرير ، الذي تم إسقاطه اليوم ، الضوء على العديد من الحالات التي حقق فيها Openai نشاطًا ضارًا وعطله يشمل نماذجه ، مع التركيز على عمليات الاحتيال والهجمات الإلكترونية وحملات التأثير المرتبطة بالحكومة. ومع ذلك ، فإنه يصل وسط التدقيق المتزايد على نوع آخر من مخاطر الذكاء الاصطناعى ، والأضرار النفسية المحتملة لدردشة. شهد هذا العام وحده تقارير عن أن المستخدمين يرتكبون أفعال إيذاء الذات والانتحار والقتل بعد التفاعل مع نماذج الذكاء الاصطناعي. يوفر هذا التقرير الجديد ، إلى جانب إفصاحات الشركة السابقة ، بعض الأفكار الإضافية حول كيفية قيام Openai المعتدلة بالدردشات لأنواع مختلفة من سوء الاستخدام.
وقال أوبياي إنه منذ أن بدأت الإبلاغ عن التهديدات العامة في فبراير 2024 ، عطلت وأبلغ عن أكثر من 40 شبكة تنتهك سياسات استخدامها. في تقرير اليوم ، شاركت الشركة دراسات حالة جديدة من الربع الماضي وتفاصيل حول كيفية اكتشاف وتعطيل الاستخدام الخبيث لنماذجها.
على سبيل المثال ، حددت الشركة شبكة الجريمة المنظمة ، التي ورد أنها تستند إلى كمبوديا ، والتي حاولت استخدام الذكاء الاصطناعى لتبسيط سير عملها. بالإضافة إلى ذلك ، قيل إن عملية التأثير السياسي الروسي تستخدم chatgpt لإنشاء مطالبات فيديو لنماذج أخرى من الذكاء الاصطناعي. قام Openai أيضًا بالإبلاغ عن الحسابات المرتبطة بالحكومة الصينية التي تنتهك سياساتها بشأن استخدام الأمن القومي ، بما في ذلك طلبات إنشاء مقترحات للأنظمة الواسعة النطاق المصممة لمراقبة محادثات الوسائط الاجتماعية.
سبق أن قالت الشركة ، بما في ذلك في سياسة الخصوصية الخاصة بها ، بأنها تستخدم البيانات الشخصية ، مثل مطالبات المستخدم ، “منع الاحتيال أو النشاط غير القانوني أو إساءة استخدام خدماتها. قالت Openai أيضًا إنها تعتمد على كل من الأنظمة الآلية والمراجعين البشريين لمراقبة النشاط. ولكن في تقرير اليوم ، عرضت الشركة نظرة أكثر قليلاً على عملية التفكير لمنع سوء الاستخدام مع الحفاظ على المستخدمين على نطاق أوسع.
وكتبت الشركة في التقرير: “للكشف عن التهديدات وتعطيلها بفعالية دون تعطيل عمل المستخدمين العاديين ، نستخدم نهجًا دقيقًا ومستنيراً يركز على أنماط سلوك ممثل التهديد بدلاً من التفاعلات النموذجية المعزولة”.
على الرغم من أن مراقبة انتهاكات الأمن القومي هي شيء واحد ، فقد حددت الشركة مؤخرًا كيفية معالجة الاستخدام الضار لنماذجها من قبل المستخدمين الذين يعانون من الضيق العاطفي أو العقلي. منذ ما يزيد قليلاً عن شهر ، نشرت الشركة منشورًا مدونة يوضح بالتفصيل كيف تتولى هذه الأنواع من المواقف. جاء المنشور وسط تغطية إعلامية للحوادث العنيفة التي ورد أنها مرتبطة بتفاعلات ChatGPT ، بما في ذلك انتحار القتل في ولاية كونيتيكت.
قالت الشركة إنه عندما يكتب المستخدمون أنهم يريدون إيذاء أنفسهم ، يتم تدريب ChatGPT على عدم الامتثال وبدلاً من ذلك ، واعترف بمشاعر المستخدم وتوجيههم نحو المساعدة والموارد في العالم الحقيقي.
عندما يكتشف الذكاء الاصطناعى أن شخصًا ما يخطط لإيذاء الآخرين ، يتم وضع علامة على المحادثات للمراجعة البشرية. إذا قرر المراجع البشري أن الشخص يمثل تهديدًا وشيكًا للآخرين ، فيمكنه إبلاغهم بإنفاذ القانون.
اعترف Openai أيضًا بأن أداء السلامة من طرازه يمكن أن يتحلل أثناء تفاعلات المستخدم الطويلة وقال إنه يعمل بالفعل على تحسين ضماناته.