تقوم Meta بمراجعة كيفية تفاعل AI chatbots مع المستخدمين بعد سلسلة من التقارير التي تعرضت للسلوك المقلق ، بما في ذلك التفاعلات مع القاصرين. أخبرت الشركة TechCrunch تقوم الآن بتدريب روبوتاتها على عدم التعامل مع المراهقين حول مواضيع مثل إيذاء الذات أو الانتحار أو اضطرابات الأكل ، وتجنب المزاح الرومانسي. هذه خطوات مؤقتة أثناء تطوير قواعد طويلة الأجل.
التغييرات تتبع أ رويترز يمكن أن تؤدي التحقيق الذي وجد أنظمة Meta إلى توليد محتوى جنسي ، بما في ذلك الصور بدون قميص للمشاهير دون السن القانونية ، وإشراك الأطفال في محادثات كانت رومانسية أو موحية. وصفت إحدى الحالات التي أبلغت عنها وكالة الأنباء رجلاً يموت بعد الاندفاع إلى عنوان تم تقديمه من قبل chatbot في نيويورك.
اعترف المتحدث باسم META ستيفاني أوتواي أن الشركة ارتكبت أخطاء. وقالت إن ميتا “تدرب منظمة العفو الدولية لدينا على عدم التعامل مع المراهقين في هذه الموضوعات ، ولكن لإرشادهم إلى موارد الخبراء” ، وأكدت أن بعض شخصيات منظمة العفو الدولية ، مثل “الفتاة الروسية” ، مثل “الفتاة الروسية” ، سيتم تقييدها.
يجادل المدافعون عن سلامة الطفل بأنه كان ينبغي أن تصرف الشركة في وقت سابق. وصفها أندي بوروز من مؤسسة مولي روز “مذهلة” بأنه تم السماح للروبوتات بالعمل بطرق تعرض الشباب للخطر. وأضاف: “على الرغم من الترحيب بمزيد من تدابير السلامة ، يجب إجراء اختبارات السلامة القوية قبل وضع المنتجات في السوق – وليس بأثر رجعي عند حدوث ضرر”.
مشاكل أوسع مع سوء استخدام الذكاء الاصطناعي
يأتي التدقيق في Meta's AI chatbots وسط مخاوف أوسع بشأن كيفية تأثير chatbots AI على المستخدمين المستضعفين. رفع زوجان في كاليفورنيا مؤخرًا دعوى قضائية ضد Openai ، مدعيا أن Chatgpt شجع ابنهما المراهق على أن يأخذ حياته. قالت Openai منذ ذلك الحين إنها تعمل على أدوات لتعزيز الاستخدام الصحي لتكنولوجياها ، مشيرة إلى منشور المدونة أن “الذكاء الاصطناعى يمكن أن يشعر أكثر استجابة وشخصية من التقنيات السابقة ، وخاصة بالنسبة للأفراد المستضعفين الذين يعانون من الضيق العقلي أو العاطفي”.
تبرز الحوادث نقاشًا متزايدًا حول ما إذا كانت شركات الذكاء الاصطناعى تصدر المنتجات بسرعة كبيرة دون ضمانات مناسبة. لقد حذر المشرعون في العديد من البلدان بالفعل من أن chatbots ، على الرغم من أنها مفيدة ، قد تضخّم المحتوى الضار أو يقدمون نصيحة مضللة للأشخاص الذين لم يتم تجهيزهم للتشكيك فيه.
Meta's AI Studio و chatbot Quision
في أثناء، رويترز ذكرت أنه تم استخدام استوديو Meta من الذكاء الاصطناعى لإنشاء دردشة “محاكاة ساخرة” غزلي للمشاهير مثل Taylor Swift و Scarlett Johansson. وجد المختبرون أن الروبوتات غالباً ما يزعم أنها أناس حقيقيين ، ومشاركين في التقدم الجنسي ، وفي بعض الحالات ، ولدت صورًا غير لائقة ، بما في ذلك القصر. على الرغم من أن Meta أزال العديد من الروبوتات بعد الاتصال به من قبل المراسلين ، فقد ترك الكثيرون نشطين.
تم إنشاء بعض أدوات chatbots من الذكاء الاصطناعي من قبل المستخدمين الخارجيين ، ولكن جاء آخرون من داخل meta. واحد chatbot الذي صنعه قيادة منتج في قسم الذكاء الاصطناعى التوليدي انتحال شخصية تايلور سويفت ودعا أ رويترز المراسل للالتقاء من أجل “رومانسية” في الحافلة السياحية. كان هذا على الرغم من سياسات Meta التي تحظر بشكل صريح الصور الموحية الجنسية والانتحال المباشر للشخصيات العامة.
مسألة انتحال شخصية AI chatbot حساسة بشكل خاص. يواجه المشاهير مخاطر السمعة عندما يتم إساءة استخدام تشابههم ، لكن الخبراء يشيرون إلى أنه يمكن أيضًا خداع المستخدمين العاديين. قد يشجع chatbot أنه صديق أو معلم أو شريك رومانسي شخص ما على مشاركة المعلومات الخاصة أو حتى الاجتماع في مواقف غير آمنة.
مخاطر العالم الحقيقي
المشاكل لا تقتصر على الترفيه. قدمت AI chatbots التي تتظاهر كأشخاص حقيقيين عناوين ودعوات مزيفة ، مما يثير أسئلة حول كيفية مراقبة أدوات META من الذكاء الاصطناعي. وشمل أحد الأمثلة رجلاً يبلغ من العمر 76 عامًا في نيو جيرسي توفي بعد سقوطه أثناء اندفاعه لمقابلة دردشة ادعى أن لديه مشاعر تجاهه.
مثل هذه الحالات توضح سبب مشاهدة المنظمين منظمة العفو الدولية عن كثب. بدأ مجلس الشيوخ و 44 من المدعي العام للولاية بالفعل بالتحقيق في ممارسات ميتا ، مضيفًا ضغوطًا سياسية على الإصلاحات الداخلية للشركة. لا يتعلق الأمر بهم فقط حول القاصرين ، ولكن أيضًا حول كيفية معالجة الذكاء الاصطناعى للمستخدمين الأكبر سناً أو الضعفاء.
يقول ميتا إنها لا تزال تعمل على التحسينات. تضع منصاتها المستخدمين الذين تتراوح أعمارهم بين 13 و 18 عامًا في “حسابات المراهقين” مع محتوى أكثر صرامة وإعدادات الخصوصية ، لكن الشركة لم تشرح بعد كيف تخطط لمعالجة القائمة الكاملة للمشاكل التي أثارتها رويترز. ويشمل ذلك الروبوتات التي تقدم مشورة طبية كاذبة وتوليد المحتوى العنصري.
الضغط المستمر على سياسات Meta من AI chatbot
لسنوات ، واجهت Meta انتقادات حول سلامة منصات وسائل التواصل الاجتماعي ، وخاصة فيما يتعلق بالأطفال والمراهقين. الآن تجارب Meta من AI chatbot تجذب تدقيق مماثل. بينما تتخذ الشركة خطوات لتقييد سلوك chatbot الضار ، فإن الفجوة بين سياساتها المعلنة والطريقة التي تم بها استخدام أدواتها تثير أسئلة مستمرة حول ما إذا كان بإمكانها فرض هذه القواعد.
إلى أن تكون ضمانات أقوى في مكانها ، من المحتمل أن يستمر المنظمون والباحثون والآباء في الضغط على التعريف حول ما إذا كانت الذكاء الاصطناعى جاهزة للاستخدام العام.
(الصورة من قبل Maxim Tolchinskiy)
انظر أيضًا: Aulecic AI: الوعد والشك ومعناها لجنوب شرق آسيا
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الكبيرة من قادة الصناعة؟ تحقق من AI و Big Data Expo الذي يقام في أمستردام ، كاليفورنيا ، ولندن. يعد الحدث الشامل جزءًا من Techex وموقعه مع الأحداث التكنولوجية الرائدة الأخرى. انقر هنا لمزيد من المعلومات.
AI News مدعومة من قبل Techforge Media. استكشاف أحداث وندوات الويب الأخرى القادمة هنا.