كشف تقرير حديث عن تزايد المخاوف المتعلقة بـالصور المزيفة التي يتم إنشاؤها باستخدام أدوات الذكاء الاصطناعي، وتحديداً إساءة استخدام هذه الأدوات لتعديل صور النساء وإنشاء محتوى غير لائق. وقد سلط التقرير الضوء على قدرة المستخدمين على التحايل على أنظمة الأمان المدمجة في هذه الأدوات، مما يثير تساؤلات حول فعالية هذه الأنظمة وحماية الأفراد من الانتهاكات الرقمية. وتأتي هذه التطورات في ظل التقدم السريع في مجال الذكاء الاصطناعي التوليدي.
انتشار إساءة استخدام الذكاء الاصطناعي في إنشاء الصور المزيفة
أظهرت التحقيقات أن بعض المستخدمين على منصات التواصل الاجتماعي، مثل “ريديت”، تبادلوا معلومات حول كيفية تجاوز القيود المفروضة على روبوتات الدردشة القائمة على الذكاء الاصطناعي، مثل Gemini وChatGPT. تهدف هذه المحاولات إلى تعديل صور النساء وجعلهن يظهرن بملابس كاشفة، وذلك باستخدام صور حقيقية كنّ يرتدين فيها ملابس محتشمة كنقطة انطلاق. وقد تم رصد منشورات تطلب تحديداً تعديل صور لنساء يرتدين ملابس تقليدية، مثل الساري الهندي، لإظهارهن بطريقة غير لائقة.
أكدت منصة “ريديت” أن هذا السلوك ينتهك بشكل واضح سياساتها المتعلقة بالمحتوى الضار، وأنها اتخذت إجراءات لحظر المجتمعات التي تشجع على هذه الممارسات. وقد تم بالفعل حظر مجتمع “r/ChatGPTJailbreak” الذي كان يضم أكثر من 200 ألف عضو، بسبب انتهاكه المتكرر لقواعد المنصة.
تطور أدوات الذكاء الاصطناعي التوليدي
يأتي هذا الأمر بالتزامن مع إطلاق نماذج جديدة للذكاء الاصطناعي قادرة على توليد صور واقعية للغاية. ففي نوفمبر الماضي، أطلقت جوجل نموذج Nano Banana Pro، بينما ردت OpenAI بإطلاق تحديث لـ ChatGPT Images. ويحذر الخبراء من أن هذه التطورات قد تجعل من الصعب بشكل متزايد التمييز بين الصور الحقيقية والصور المولدة بالذكاء الاصطناعي، مما يزيد من خطر انتشار المعلومات المضللة والمحتوى الضار.
على الرغم من أن معظم روبوتات الدردشة الشهيرة تتضمن آليات لمنع إنشاء صور إباحية أو مسيئة، إلا أن بعض المستخدمين يجدون طرقاً للتحايل على هذه القيود. وتعتمد هذه الطرق غالباً على استخدام مطالبات معقدة أو غير مباشرة، أو على استغلال نقاط الضعف في أنظمة الأمان.
ردود فعل الشركات المطورة
أعلنت جوجل أنها تلتزم بسياسات صارمة تمنع استخدام أدواتها في إنشاء محتوى جنسي صريح، وأنها تعمل باستمرار على تحسين هذه السياسات وآليات تطبيقها. كما أكدت الشركة أنها تتخذ إجراءات ضد أي محاولة لانتهاك هذه السياسات.
من جانبها، أوضحت OpenAI أنها تمنع تعديل مظهر أي شخص حقيقي دون الحصول على موافقته الصريحة، وأنها قد تحظر الحسابات المخالفة لهذه القاعدة. وتشدد الشركة على أهمية احترام خصوصية الأفراد وحقوقهم في الصورة.
المخاوف القانونية والأخلاقية
يثير هذا النوع من إساءة استخدام الذكاء الاصطناعي تساؤلات قانونية وأخلاقية مهمة. فقد يؤدي إنشاء صور مفبركة لأفراد دون موافقتهم إلى انتهاك حقوقهم في الخصوصية والسمعة، وقد يعرضهم للتحرش أو التشهير. بالإضافة إلى ذلك، فإن استخدام هذه الصور في سياقات غير قانونية، مثل الابتزاز أو التهديد، يمكن أن يشكل جريمة جنائية.
تتزايد الدعوات إلى وضع قوانين ولوائح تنظم استخدام الذكاء الاصطناعي التوليدي، وتحدد المسؤولية عن أي ضرر ينجم عن إساءة استخدامه. كما يرى البعض أنه من الضروري تطوير تقنيات جديدة للكشف عن الصور المزيفة، وتوفير أدوات للأفراد لحماية صورهم على الإنترنت.
الذكاء الاصطناعي يمثل فرصة هائلة للابتكار والتقدم، ولكن يجب استخدامه بمسؤولية وأخلاقية. إن حماية الأفراد من الانتهاكات الرقمية وضمان احترام حقوقهم يجب أن يكونا على رأس الأولويات.
من المتوقع أن تستمر الشركات المطورة في تحسين أنظمة الأمان الخاصة بها، وأن تتبنى تدابير أكثر صرامة لمنع إساءة استخدام أدواتها. ومع ذلك، فإن التحدي يكمن في مواكبة التطورات السريعة في مجال الذكاء الاصطناعي، والتأكد من أن أنظمة الأمان قادرة على مواجهة التهديدات الجديدة. كما يجب على المستخدمين أن يكونوا على دراية بالمخاطر المحتملة، وأن يتخذوا الاحتياطات اللازمة لحماية أنفسهم.
