يتزايد القلق بشأن الاستخدام الضار للذكاء الاصطناعي، وتحديداً في إنشاء ونشر محتوى يحض على الكراهية عبر الإنترنت. وقد سلطت تقارير حديثة الضوء على كيفية استغلال أدوات الذكاء الاصطناعي، مثل Sora 2 من OpenAI، لإنتاج مقاطع فيديو مسيئة تستهدف مجموعات معينة، مما يثير تساؤلات حول المسؤولية الأخلاقية والتنظيمية. هذا المحتوى، الذي يتضمن في كثير من الأحيان العنصرية والسخرية من الأجساد، ينتشر بسرعة على منصات التواصل الاجتماعي، مما يؤثر على تصورات المستخدمين.
أفادت مصادر متعددة بظهور موجة من مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي على منصات مثل Instagram وYouTube وTikTok. هذه المقاطع تصور سيناريوهات مهينة ومسيئة، وغالباً ما تستهدف الأفراد بناءً على وزنهم أو عرقهم أو غيرها من الخصائص الشخصية. وقد حصدت بعض هذه المقاطع ملايين المشاهدات، مما أثار غضبًا واسع النطاق ودعوات إلى اتخاذ إجراءات.
الذكاء الاصطناعي والمحتوى المسيء: خطر متزايد
تكمن المشكلة الرئيسية في سهولة الوصول إلى أدوات الذكاء الاصطناعي وقدرتها على إنشاء محتوى واقعي بشكل مقنع. ما كان يتطلب في السابق مهارات إنتاجية متخصصة ووقتًا طويلاً يمكن الآن تحقيقه في ثوانٍ معدودة بواسطة أي شخص لديه اتصال بالإنترنت. هذا التطور يضعف بشكل كبير القدرة على التحكم في انتشار المحتوى الضار، ويجعل من الصعب التمييز بين الواقع والمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
أمثلة على المحتوى المسيء
تتضمن الأمثلة التي تم تداولها على نطاق واسع مقاطع فيديو تصور امرأة بدينة تسقط من جسر أثناء محاولتها القفز بالحبل، ومقاطع أخرى تصور أفرادًا من عرق معين في مواقف مهينة. بالإضافة إلى ذلك، ظهرت مقاطع فيديو تصور سائقي توصيل وهم يسقطون من شرفات أو يعانون من تشوهات جسدية. هذه المقاطع، على الرغم من كونها مزيفة، يمكن أن تسبب ضررًا نفسيًا كبيرًا للأفراد والمجتمعات المستهدفة.
يزيد من خطورة الوضع حقيقة أن العديد من المشاهدين يعتقدون أن هذه المقاطع حقيقية. هذا الخلط بين الواقع والخيال يؤدي إلى تعزيز الصور النمطية السلبية وتطبيع الكراهية والعنف عبر الإنترنت. كما أن انتشار هذه المقاطع يشجع الآخرين على إنشاء محتوى مماثل، مما يخلق حلقة مفرغة من الإساءة.
تثير هذه الظاهرة تساؤلات حول فعالية “حواجز الحماية” التي تدعي شركات الذكاء الاصطناعي، مثل OpenAI، أنها قد طبقتها. فقد أظهرت هذه الحالات أن هذه الحواجز ليست كافية لمنع إنشاء ونشر المحتوى الضار. وهناك حاجة ماسة إلى تطوير آليات أكثر فعالية للكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وإزالته.
بالإضافة إلى ذلك، يثير هذا الوضع نقاشًا حول المسؤولية القانونية والأخلاقية لشركات الذكاء الاصطناعي. هل يجب أن تكون هذه الشركات مسؤولة عن المحتوى الذي يتم إنشاؤه باستخدام أدواتها؟ وما هي الإجراءات التي يمكن اتخاذها لضمان استخدام الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية؟
تأثير المحتوى المسيء على المجتمع
لا يقتصر تأثير هذا المحتوى على الأفراد المستهدفين بشكل مباشر. بل إنه يشكل الطريقة التي يرى بها الناس العالم، وخاصة الأطفال والمراهقين الذين هم أكثر عرضة للتأثر بالمحتوى الذي يشاهدونه عبر الإنترنت. إن التعرض المستمر للمحتوى المسيء يمكن أن يؤدي إلى تشويه القيم الأخلاقية وتطبيع التمييز والعنف.
تعتبر وسائل التواصل الاجتماعي بيئة خصبة لانتشار هذا النوع من المحتوى. تعتمد هذه المنصات على الخوارزميات التي تعطي الأولوية للمحتوى الذي يحظى بتفاعل كبير، مما يعني أن المحتوى المسيء الذي يثير الغضب أو الاشمئزاز يمكن أن ينتشر بسرعة أكبر من المحتوى الإيجابي والبناء. وهذا يخلق تحيزًا في المعلومات ويساهم في تدهور الخطاب العام.
تتطلب معالجة هذه المشكلة جهودًا مشتركة من شركات الذكاء الاصطناعي ومنصات التواصل الاجتماعي والجهات التنظيمية والمجتمع المدني. يجب على شركات الذكاء الاصطناعي تطوير أدوات أكثر فعالية للكشف عن المحتوى الضار ومنعه. يجب على منصات التواصل الاجتماعي تحسين خوارزمياتها لتقليل انتشار المحتوى المسيء وتعزيز المحتوى الإيجابي. يجب على الجهات التنظيمية وضع قوانين ولوائح واضحة تحكم استخدام الذكاء الاصطناعي وتحدد المسؤوليات.
حتى الآن، لم تصدر OpenAI أي بيان رسمي بشأن هذه الموجة من المحتوى المسيء. ومع ذلك، من المتوقع أن تواجه الشركة ضغوطًا متزايدة من الجهات التنظيمية والمجتمع المدني لاتخاذ إجراءات. من المحتمل أن يتم التركيز على تحسين آليات الإشراف على المحتوى وتطوير أدوات أفضل للكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
في الختام، يمثل الاستخدام الضار للذكاء الاصطناعي في إنشاء ونشر المحتوى المسيء تحديًا كبيرًا يتطلب معالجة عاجلة. من الضروري إيجاد توازن بين تعزيز الابتكار في مجال الذكاء الاصطناعي وحماية الأفراد والمجتمعات من الأضرار المحتملة. من المتوقع أن تشهد الأشهر القادمة نقاشات مكثفة حول هذا الموضوع، وأن يتم اتخاذ خطوات ملموسة لتنظيم استخدام الذكاء الاصطناعي وضمان استخدامه بطريقة مسؤولة وأخلاقية.
