انتشرت معلومات مضللة على نطاق واسع عبر وسائل التواصل الاجتماعي عقب الهجوم الإرهابي الذي استهدف احتفالًا بالحانوكا في شاطئ بوندي بأستراليا يوم الأحد، مما أدى إلى مقتل 15 شخصًا وإصابة العشرات. أحد أبرز مظاهر هذا التضليل هو انتشار صورة تم إنشاؤها بواسطة الذكاء الاصطناعي، زُعم أنها تُظهر أحد الضحايا وهو يضع دمًا مزيفًا قبل الهجوم. هذه الصورة، على الرغم من واقعيتها الظاهرية، هي محض اختلاق، والأدوات المعتادة للتحقق من الصور أثبتت فشلها في كشف زيفها.
وقع الهجوم في شاطئ بوندي الشهير بسيدني، أستراليا، وأثار صدمة وغضبًا على المستويات المحلية والدولية. استهدفت الحادثة تجمعًا سلميًا للاحتفال بالحانوكا، مما زاد من فداحة الجريمة. وقد أعلنت السلطات الأسترالية عن فتح تحقيق شامل في الحادث وتحديد هوية المهاجمين، الذين يُشتبه في أن لديهم صلات بتنظيمات إرهابية.
تحديات التحقق من صحة الصور في ظل الذكاء الاصطناعي
تكمن خطورة هذه الصورة المزيفة في قدرتها على خداع حتى أدوات التحقق من الصور التي تعتمد على الذكاء الاصطناعي. فقد أظهرت بعض الأدوات نتائج إيجابية، مؤكدةً أن الصورة حقيقية، مما ساهم في انتشارها وتصديقها. هذا الفشل يثير تساؤلات حول موثوقية هذه الأدوات في مواجهة التطورات السريعة في تقنيات توليد الصور الاصطناعية.
كيف تم كشف زيف الصورة؟
على الرغم من قدرة الذكاء الاصطناعي على إنتاج صور واقعية، إلا أن هناك بعض العلامات التي يمكن أن تكشف زيفها. أظهر فحص دقيق للصورة تشوهات في الأشكال الموجودة في الخلفية، مثل السيارات المشوهة والأيدي غير الطبيعية. بالإضافة إلى ذلك، لوحظ وجود تشوهات في النص على قميص الضحية، وعدم تطابق بقع الدم مع الصور الأصلية للمقابلات التلفزيونية. كما كشف التكبير عن وجود إصبع إضافي في يد فنان الماكياج.
العلامة المائية SynthID: بصيص أمل
لحسن الحظ، طورت Google تقنية تسمى SynthID، والتي تقوم بإضافة علامة مائية غير مرئية إلى الصور التي يتم إنشاؤها باستخدام أدواتها التي تعمل بالذكاء الاصطناعي. في الشهر الماضي، تم إتاحة إمكانية اكتشاف هذه العلامة المائية للجمهور من خلال منصة Gemini. وقد أكد اختبار أجراه موقع Gizmodo أن الصورة المزيفة لأوستروفسكي تحمل هذه العلامة، مما يؤكد أنها تم إنشاؤها بواسطة الذكاء الاصطناعي. ومع ذلك، يجب التنويه إلى أن غياب العلامة المائية لا يعني بالضرورة أن الصورة حقيقية، بل قد يعني أنها لم يتم إنشاؤها باستخدام أدوات Google.
في المقابل، فشلت أدوات كشف الصور الأخرى التي تعمل بالذكاء الاصطناعي، مثل Grok وChatGPT وClaude، في اكتشاف زيف الصورة. وقد أصرت هذه الأدوات على أن الصورة حقيقية، وقدمت حججًا واهية لدعم هذا الادعاء. هذا الفشل يسلط الضوء على الحاجة إلى تطوير أدوات أكثر موثوقية للتحقق من صحة الصور في ظل التهديد المتزايد من المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.
بالإضافة إلى ذلك، ساهمت منصة X (تويتر سابقًا) في انتشار الصورة المزيفة من خلال نظام التحقق الجديد الذي يسمح لأي شخص بالاشتراك مقابل رسوم شهرية. وقد أدى هذا النظام إلى رفع مستوى ظهور الحسابات التي تنشر معلومات مضللة، مما زاد من انتشارها وتأثيرها. وقد أثار هذا الأمر انتقادات واسعة النطاق، ودعوات إلى إعادة النظر في نظام التحقق الحالي.
تداعيات الحادث في أستراليا
أعرب الضحية، أرسين أوستروفسكي، عن استيائه من انتشار هذه المزاعم الكاذبة، مؤكدًا أنه شاهد الصور المزيفة أثناء الاستعداد لإجراء عملية جراحية. وأكد أوستروفسكي أنه لن يرد على هذه الحملة المريضة من الأكاذيب والكراهية. ويأتي هذا الحادث في أعقاب هجمات إرهابية مماثلة في إسرائيل، حيث نجا أوستروفسكي من هجمات في 7 أكتوبر 2023.
وقد أعلنت السلطات الأسترالية عن تعزيز الإجراءات الأمنية في جميع أنحاء البلاد، وتكثيف الرقابة على الأنشطة المتطرفة. كما دعت إلى إجراء المزيد من عمليات التفتيش المتكررة على الأشخاص الذين يحملون تراخيص الأسلحة، وذلك في أعقاب الكشف عن أن الأسلحة المستخدمة في الهجوم تم الحصول عليها بشكل قانوني. من المتوقع أن يناقش البرلمان الأسترالي خلال الأيام القادمة مقترحات لتشديد قوانين حيازة الأسلحة.
في الختام، يمثل انتشار المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي تحديًا كبيرًا للمجتمع. يتطلب هذا التحدي تطوير أدوات أكثر موثوقية للتحقق من صحة الصور، وتعزيز الوعي العام بمخاطر المعلومات المضللة، واتخاذ إجراءات صارمة لمكافحة انتشارها. من المقرر أن تعقد الحكومة الأسترالية اجتماعًا طارئًا الأسبوع المقبل لمناقشة هذه القضية وتحديد الخطوات اللازمة لمواجهتها. سيراقب المراقبون عن كثب نتائج هذا الاجتماع، بالإضافة إلى التطورات في التحقيقات الجارية في الهجوم.
