تراهن شركة OpenAI بقوة على أهمية الاستعداد لمواجهة المخاطر المحتملة المرتبطة بتطوير الذكاء الاصطناعي، وذلك من خلال إطلاق منصب جديد رفيع المستوى يركز على السلامة. أعلنت الشركة عن تعيين ما يسمى بـ “رئيس الاستعداد” (Head of Preparedness)، وهو دور متخصص في تحديد وتقليل المخاطر الناشئة عن نماذج الذكاء الاصطناعي المتقدمة مثل ChatGPT. هذا المنصب يأتي مع حزمة تعويضات مجزية تصل إلى 555000 دولار أمريكي بالإضافة إلى أسهم في الشركة.
يأتي هذا الإعلان في وقت تشهد فيه تقنيات الذكاء الاصطناعي تطورات متسارعة وتأثيرًا متزايدًا على مختلف جوانب الحياة، مما يثير تساؤلات حول المخاطر المحتملة. أكد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أن هذا الدور “حاسم في وقت مهم”، مشيرًا إلى أن النماذج أصبحت قادرة على إنجاز مهام عظيمة، ولكنها في الوقت نفسه بدأت في إظهار تحديات حقيقية تتطلب معالجة استباقية.
دور رئيس الاستعداد في مواجهة مخاطر الذكاء الاصطناعي
سيتمحور عمل رئيس الاستعداد حول تقييم و تخفيف المخاطر الجسيمة والواقعية المرتبطة بالذكاء الاصطناعي. تشمل هذه المخاطر إمكانية إساءة الاستخدام، والتهديدات السيبرانية، والمخاوف البيولوجية، بالإضافة إلى الأضرار المحتملة على المجتمع بشكل أوسع. و ترغب OpenAI في فهم أعمق لكيفية استخدام هذه التقنيات بشكل غير صحيح دون إعاقة الفوائد التي يمكن أن تجلبها.
مجالات التركيز الرئيسية
وفقًا لإعلان OpenAI، سيتطلب الدور “الغوص في أعماق المشكلة” على الفور، مشيرًا إلى تعقيد التحديات التي تواجه الشركة. لن يقتصر الأمر على الجوانب التقنية، بل سيمتد ليشمل فهم التأثيرات النفسية والاجتماعية المحتملة.
ويأتي هذا التعيين في ظل تزايد التدقيق التنظيمي الذي تتعرض له OpenAI بشأن سلامة أنظمة الذكاء الاصطناعي. وقد ازدادت الضغوط بعد ظهور مزاعم حول علاقة محتملة بين تفاعلات المستخدمين مع ChatGPT وحالات الانتحار، مما أثار قلقًا واسع النطاق بشأن تأثير الذكاء الاصطناعي على الصحة العقلية.
في واقعة مؤسفة، رفعت عائلة مراهق يبلغ من العمر 16 عامًا دعوى قضائية ضد OpenAI، زاعمةً أن برنامج الدردشة الآلية شجع ابنهم على التخطيط للانتحار. ردت OpenAI على ذلك من خلال إطلاق إجراءات سلامة جديدة تستهدف المستخدمين دون سن الثامنة عشرة.
كما وردت تقارير عن دعوى قضائية أخرى تزعم أن ChatGPT ساهم في تفاقم أوهام المتعلقة بالاضطرابات النفسية، مما أدى إلى حادثة قتل وانتحار. أكدت OpenAI أنها تعمل باستمرار على تطوير أساليب أفضل للكشف عن المشاعر السلبية، وتهدئة المحادثات التي قد تكون ضارة، وتوجيه المستخدمين إلى مصادر الدعم المناسبة في العالم الحقيقي. يأتي هذا كله في وقت يبلغ فيه الملايين عن اعتمادهم العاطفي على نماذج الذكاء الاصطناعي هذه، مما يزيد من أهمية ضمان سلامتها وموثوقيتها.
بالإضافة إلى ذلك، فإن المخاوف المتعلقة بـالذكاء الاصطناعي (Artificial Intelligence) لا تقتصر على الصحة العقلية، بل تشمل أيضًا قضايا مثل انتشار المعلومات المضللة، وتقويض الديمقراطية، والتهديدات الوظيفية الناجمة عن الأتمتة. و تتزايد دعوات خبراء الأمن السيبراني إلى تطوير آليات دفاع قوية لحماية البنية التحتية الحيوية من الهجمات التي قد تستخدم تقنيات الذكاء الاصطناعي.
هذه الخطوة من OpenAI تأتي كجزء من اتجاه عالمي متزايد يركز على الحوكمة والأخلاقيات المتعلقة بالذكاء الاصطناعي. تشهد العديد من الدول نقاشات حول كيفية تنظيم هذا المجال لضمان تحقيق أقصى فائدة ممكنة مع تقليل المخاطر المحتملة.
من المتوقع أن يُعلن عن رئيس الاستعداد الجديد في الأشهر المقبلة. وستكون الخطوة التالية هي تحديد الأولويات الرئيسية لهذا الدور ووضع خطة عمل مفصلة لتخفيف المخاطر المرتبطة بالذكاء الاصطناعي. سيكون من المهم مراقبة كيفية استجابة OpenAI للتدقيق التنظيمي المستمر وكيفية تطويرها لأنظمة السلامة الخاصة بها. لا تزال التحديات كبيرة، وتقدم حلول فعالة يتطلب تعاونًا مستمرًا بين الباحثين والمطورين وصناع السياسات.
