أعلنت شركة OpenAI مؤخرًا عن تحديثات مهمة لـ “نموذج المواصفات” الخاص بها، وهو بمثابة دليل إرشادي لسلوك الذكاء الاصطناعي لديها. يركز هذا التحديث بشكل خاص على حماية المستخدمين الذين تقل أعمارهم عن 18 عامًا، ويستهدف تحسين الطريقة التي يتفاعل بها مساعد الذكاء الاصطناعي ChatGPT مع المراهقين. تُعد هذه الخطوة جزءًا من جهود متزايدة لضمان استخدام آمن ومناسب للعمر لتكنولوجيا **الذكاء الاصطناعي**.
يهدف التحديث إلى معالجة المخاوف المتزايدة بشأن تأثير الذكاء الاصطناعي على الشباب، لا سيما فيما يتعلق بالصحة العاطفية والتنموية. تشير التقارير إلى أن المراهقين يقضون وقتًا متزايدًا في التفاعل مع نماذج اللغة الكبيرة مثل ChatGPT، مما يستدعي الحاجة إلى تدابير وقائية قوية. التغييرات ستُطبق على جميع منتجات OpenAI، بما في ذلك ChatGPT و Sora.
إطار عمل جديد لسلامة المراهقين في تفاعلات الذكاء الاصطناعي
تتضمن التحديثات مجموعة من المبادئ التوجيهية المصممة خصيصًا للمستخدمين الذين تتراوح أعمارهم بين 13 و 17 عامًا. وفقًا لـ OpenAI، فإن هذه المبادئ مبنية على أبحاث علمية في مجال النمو النفسي والاجتماعي، وقد تم مراجعتها من قبل خبراء في هذا المجال، بما في ذلك جمعية علم النفس الأمريكية. الهدف الأساسي هو توفير تجربة أكثر أمانًا وملاءمة للعمر للمراهقين.
الأسس الأربعة لحماية المراهقين
يرتكز إطار العمل الجديد على أربعة وعود رئيسية. أولاً، إعطاء الأولوية القصوى لسلامة المراهقين، حتى لو أدى ذلك إلى تقليل “فاعلية” الذكاء الاصطناعي في بعض الحالات. ثانيًا، توجيه المراهقين نحو طلب الدعم من مصادر موثوقة في العالم الحقيقي، مثل الأهل أو الأصدقاء أو المستشارين، بدلاً من الاعتماد بشكل كامل على الذكاء الاصطناعي. ثالثًا، التعامل مع المراهقين على أنهم أفراد في مرحلة المراهقة، مع مراعاة احتياجاتهم الخاصة، وليس كأطفال صغار أو بالغين ناضجين. وأخيرًا، التأكيد على الشفافية بشأن حدود قدرات الذكاء الاصطناعي.
تترجم هذه المبادئ إلى تدخلات محددة من قبل ChatGPT عند مناقشة مواضيع حساسة. على سبيل المثال، إذا أثار المراهق موضوعًا يتعلق بإيذاء النفس أو التحديات الخطيرة، فسيقدم الذكاء الاصطناعي بدائل أكثر أمانًا، ويضع حدودًا واضحة، ويحث المستخدم على التواصل مع شخص بالغ موثوق به. في حالات الطوارئ، سيتم توجيه المستخدمين نحو خطوط المساعدة للأزمات وخدمات الطوارئ.
بالإضافة إلى ذلك، تهدف OpenAI إلى معالجة قضايا مثل صورة الجسم السلبية، وتقديم معلومات دقيقة حول الصحة العقلية، ومنع مشاركة المعلومات الشخصية الحساسة. هذه الإجراءات تهدف إلى تقليل المخاطر المحتملة المرتبطة باستخدام **الذكاء الاصطناعي** من قبل المراهقين.
تأثير التحديثات على العائلات
تعتبر هذه التحديثات ذات أهمية خاصة بالنسبة للعائلات، حيث أن الذكاء الاصطناعي أصبح أداة شائعة للتعلم والترفيه. يوفر هذا الإطار الجديد طبقة إضافية من الحماية، مما يمنح الآباء مزيدًا من الطمأنينة بشأن تفاعلات أطفالهم مع التكنولوجيا. تتكامل هذه المبادئ مع مخطط سلامة المراهقين الحالي لـ OpenAI والضوابط الأبوية المتاحة.
علاوة على ذلك، يتم توسيع نطاق الحماية ليشمل أحدث ميزات OpenAI، مثل الدردشات الجماعية ومتصفح ChatGPT Atlas وتطبيق Sora. كما تتضمن التحديثات تذكيرات مدمجة لتشجيع المستخدمين الشباب على أخذ فترات راحة منتظمة لتقليل الوقت الذي يقضونه أمام الشاشات. هذه الإجراءات تهدف إلى تعزيز عادات استخدام صحية لـ **التكنولوجيا**.
تخطط OpenAI أيضًا لإطلاق أداة جديدة للتنبؤ بالعمر لتقييم حسابات المستخدمين الشخصية في ChatGPT. ستحاول هذه الأداة تحديد ما إذا كان المستخدم قاصرًا وتطبيق إجراءات الحماية الخاصة بالمراهقين تلقائيًا. في حالة عدم اليقين، سيتم تعيين المستخدم افتراضيًا على تجربة U18 الأكثر أمانًا. هذه الخطوة تهدف إلى ضمان حصول جميع المستخدمين الشباب على مستوى مناسب من الحماية.
ومع ذلك، تؤكد الشركة أن هذه الأداة ليست حلاً مثاليًا، وأنها ستواصل تعديل وتحسين إجراءات الحماية بناءً على الأبحاث الجديدة وتعليقات المستخدمين. تعتبر OpenAI أن سلامة المراهقين هي عملية مستمرة تتطلب جهودًا متواصلة.
في المستقبل القريب، من المتوقع أن تركز OpenAI على جمع المزيد من البيانات حول كيفية تفاعل المراهقين مع ChatGPT، وتقييم فعالية إجراءات الحماية الجديدة. كما تخطط الشركة للتعاون مع خبراء إضافيين في مجال نمو الشباب لضمان أن تظل مبادئها التوجيهية محدثة وفعالة. من المهم مراقبة التطورات المستقبلية في هذا المجال، حيث أن تأثير **الذكاء الاصطناعي** على المراهقين لا يزال قيد الدراسة.
