أعلنت شركة OpenAI عن بدء طرح نظام جديد للتنبؤ بالعمر لمستخدمي ChatGPT المدفوعين، بهدف توفير تجربة أكثر أمانًا وملاءمة للمراهقين دون حرمان البالغين من الوصول الكامل إلى إمكانيات الذكاء الاصطناعي. يأتي هذا الإعلان بعد فترة اختبار محدودة بدأت في سبتمبر الماضي، وتسعى من خلاله الشركة إلى الامتثال المتزايد للوائح حماية الأطفال على الإنترنت.
يهدف النظام الجديد إلى تحديد المستخدمين الذين تقل أعمارهم عن 18 عامًا تلقائيًا، ومن ثم توجيههم إلى نسخة أكثر تقييدًا من ChatGPT. هذا التحديث يمثل خطوة مهمة في جهود OpenAI لمعالجة المخاوف المتعلقة بالمحتوى غير المناسب الذي قد يتعرض له المستخدمون الأصغر سنًا عبر منصتها. ويشمل هذا التقييد مجموعة متنوعة من الموضوعات الحساسة.
حماية المراهقين: كيف يعمل نظام التنبؤ بالعمر في ChatGPT؟
يعتمد نظام التنبؤ بالعمر على تحليل مجموعة من البيانات السلوكية المتعلقة بحساب المستخدم. وفقًا لـ OpenAI، يشمل ذلك مدة وجود الحساب، وأوقات النشاط المعتادة، وأنماط الاستخدام بمرور الوقت، بالإضافة إلى أي معلومات عن العمر يقدمها المستخدم نفسه. هذه البيانات تُستخدم لتقدير عمر المستخدم، وليس الاعتماد على معلومات مؤكدة.
عندما يشير النظام إلى أن المستخدم قد يكون دون السن القانونية، يتم تطبيق قيود تلقائية على المحتوى الذي يمكن الوصول إليه. تشمل هذه القيود حجب المحتوى الرسومي أو العنيف، والتحديات الخطيرة المنتشرة عبر الإنترنت، والمحتوى ذي الطابع الجنسي أو الرومانسي، وتصوير إيذاء النفس، والمحتوى الذي يروج لمفاهيم غير واقعية عن الجمال أو الحميات الغذائية الضارة.
آلية عمل النظام وتحدياتها
توضح OpenAI أن النظام لا يعتمد على معيار واحد لتحديد العمر، بل يجمع بين عدة إشارات لزيادة الدقة. ومع ذلك، تعترف الشركة بأن النظام ليس معصومًا من الخطأ، وقد يصنف بالغين بشكل غير صحيح على أنهم مراهقون. هذا الاحتمال يتطلب وجود آلية للتحقق من العمر.
لمعالجة هذه المشكلة، توفر OpenAI للمستخدمين الذين تم تصنيفهم خطأً خيار التحقق من أعمارهم من خلال خدمة “Persona” للتحقق من الهوية. يمكن للمستخدمين الوصول إلى إعدادات الحساب (Settings > Account) للتحقق مما إذا كانت هناك قيود مفروضة على حسابهم واتخاذ الإجراءات اللازمة.
بالإضافة إلى حماية المستخدمين الأصغر سنًا، يتيح نظام التنبؤ بالعمر لـ OpenAI التخطيط لإطلاق ميزات جديدة مصممة خصيصًا للبالغين. كان من المقرر إطلاق “وضع البالغين” في وقت سابق، ولكن تم تأجيله للسماح للشركة بتحسين دقة نظام تحديد العمر.
تأخير إطلاق وضع البالغين يعكس حرص OpenAI على ضمان تجربة مستخدم آمنة ومسؤولة للجميع. وتشير الشركة إلى أن هذا التأخير ضروري لضمان عدم وصول المحتوى غير المناسب إلى المستخدمين دون سن الثامنة عشرة. هذا التوازن بين الوصول والرقابة يمثل تحديًا مستمرًا في مجال الذكاء الاصطناعي.
تعتبر هذه الخطوة جزءًا من اتجاه أوسع في صناعة التكنولوجيا نحو زيادة المسؤولية عن حماية المستخدمين، وخاصة الأطفال. تتعرض شركات الذكاء الاصطناعي لتدقيق متزايد من الجهات التنظيمية والجمهور بشأن كيفية تعاملها مع المخاطر المحتملة المرتبطة بتقنياتها.
من الجدير بالذكر أن OpenAI ليست الشركة الوحيدة التي تتخذ خطوات لحماية المستخدمين الأصغر سنًا. العديد من منصات التواصل الاجتماعي ومواقع الفيديو الأخرى قد طبقت بالفعل سياسات مماثلة.
من المتوقع أن تعلن OpenAI عن تفاصيل “وضع البالغين” في الربع الأول من عام 2026، بعد الانتهاء من عملية التحسين والتعديل لنظام التنبؤ بالعمر. ومع ذلك، لا يزال هناك بعض عدم اليقين بشأن الجدول الزمني الدقيق للإطلاق، حيث قد تتأثر الخطط بنتائج الاختبارات الإضافية والتطورات التنظيمية. يجب على المستخدمين مراقبة التحديثات الرسمية من OpenAI لمعرفة المزيد.
تعتبر هذه التطورات بمثابة إشارة إلى التزام OpenAI بتطوير تقنيات الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية، مع إعطاء الأولوية لسلامة المستخدمين وحمايتهم. وسيكون من المهم مراقبة كيفية تطور هذه السياسات والممارسات في المستقبل، وكيف ستؤثر على تجربة المستخدم بشكل عام.
