Close Menu
تقنية نيوزتقنية نيوز

    خدمة الإشعارات البريدية

    اشترك في خدمة الإشعارات البريدية ليصلك كل جديد الى بريدك الإلكتروني مباشرة.

    مقالات قد تهمك

    أكثر من 1000 دورة تدريبية مقابل 19.97 دولارًا كعرض (Last-Minute Deal) فريد.

    17 ديسمبر, 2025

    يجلب روبلوكس الذكاء الاصطناعي إلى الاستوديو لتسريع تطوير الألعاب.

    17 ديسمبر, 2025

    صورة مُنشأة بالذكاء الاصطناعي تُظهر ادعاءً كاذبًا بتدبير هجوم (بوندي بيتش) الإرهابي.

    17 ديسمبر, 2025
    فيسبوك X (Twitter) الانستغرام
    • من نحن
    • سياسة الخصوصية
    • اتصل بنا
    فيسبوك X (Twitter) الانستغرام يوتيوب
    تقنية نيوزتقنية نيوز
    • الرئيسية
    • اخر الاخبار
    • هواتف ذكية
    • كمبيوتر
    • برامج وتطبيقات
    • شركات
      • ابل
      • سامسونج
      • جوجل
      • مايكروسوفت
      • أمازون
    • المزيد
      • الذكاء الإصطناعي
      • الأمن الإلكتروني
      • ألعاب
      • منوعات تقنية
    اشترك معنا
    تقنية نيوزتقنية نيوز
    الرئيسية » صورة مُنشأة بالذكاء الاصطناعي تُظهر ادعاءً كاذبًا بتدبير هجوم (بوندي بيتش) الإرهابي.
    اخر الاخبار

    صورة مُنشأة بالذكاء الاصطناعي تُظهر ادعاءً كاذبًا بتدبير هجوم (بوندي بيتش) الإرهابي.

    فريق التحريربواسطة فريق التحرير17 ديسمبر, 20251 زيارةلا توجد تعليقات
    شاركها فيسبوك تويتر بينتيريست لينكدإن Tumblr رديت تيلقرام البريد الإلكتروني
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    انتشرت معلومات مضللة على نطاق واسع عبر وسائل التواصل الاجتماعي عقب الهجوم الإرهابي الذي استهدف احتفالًا بالحانوكا في شاطئ بوندي بأستراليا يوم الأحد، مما أدى إلى مقتل 15 شخصًا وإصابة العشرات. أحد أبرز مظاهر هذا التضليل هو انتشار صورة تم إنشاؤها بواسطة الذكاء الاصطناعي، زُعم أنها تُظهر أحد الضحايا وهو يضع دمًا مزيفًا قبل الهجوم. هذه الصورة، على الرغم من واقعيتها الظاهرية، هي محض اختلاق، والأدوات المعتادة للتحقق من الصور أثبتت فشلها في كشف زيفها.

    وقع الهجوم في شاطئ بوندي الشهير بسيدني، أستراليا، وأثار صدمة وغضبًا على المستويات المحلية والدولية. استهدفت الحادثة تجمعًا سلميًا للاحتفال بالحانوكا، مما زاد من فداحة الجريمة. وقد أعلنت السلطات الأسترالية عن فتح تحقيق شامل في الحادث وتحديد هوية المهاجمين، الذين يُشتبه في أن لديهم صلات بتنظيمات إرهابية.

    تحديات التحقق من صحة الصور في ظل الذكاء الاصطناعي

    تكمن خطورة هذه الصورة المزيفة في قدرتها على خداع حتى أدوات التحقق من الصور التي تعتمد على الذكاء الاصطناعي. فقد أظهرت بعض الأدوات نتائج إيجابية، مؤكدةً أن الصورة حقيقية، مما ساهم في انتشارها وتصديقها. هذا الفشل يثير تساؤلات حول موثوقية هذه الأدوات في مواجهة التطورات السريعة في تقنيات توليد الصور الاصطناعية.

    كيف تم كشف زيف الصورة؟

    على الرغم من قدرة الذكاء الاصطناعي على إنتاج صور واقعية، إلا أن هناك بعض العلامات التي يمكن أن تكشف زيفها. أظهر فحص دقيق للصورة تشوهات في الأشكال الموجودة في الخلفية، مثل السيارات المشوهة والأيدي غير الطبيعية. بالإضافة إلى ذلك، لوحظ وجود تشوهات في النص على قميص الضحية، وعدم تطابق بقع الدم مع الصور الأصلية للمقابلات التلفزيونية. كما كشف التكبير عن وجود إصبع إضافي في يد فنان الماكياج.

    العلامة المائية SynthID: بصيص أمل

    لحسن الحظ، طورت Google تقنية تسمى SynthID، والتي تقوم بإضافة علامة مائية غير مرئية إلى الصور التي يتم إنشاؤها باستخدام أدواتها التي تعمل بالذكاء الاصطناعي. في الشهر الماضي، تم إتاحة إمكانية اكتشاف هذه العلامة المائية للجمهور من خلال منصة Gemini. وقد أكد اختبار أجراه موقع Gizmodo أن الصورة المزيفة لأوستروفسكي تحمل هذه العلامة، مما يؤكد أنها تم إنشاؤها بواسطة الذكاء الاصطناعي. ومع ذلك، يجب التنويه إلى أن غياب العلامة المائية لا يعني بالضرورة أن الصورة حقيقية، بل قد يعني أنها لم يتم إنشاؤها باستخدام أدوات Google.

    في المقابل، فشلت أدوات كشف الصور الأخرى التي تعمل بالذكاء الاصطناعي، مثل Grok وChatGPT وClaude، في اكتشاف زيف الصورة. وقد أصرت هذه الأدوات على أن الصورة حقيقية، وقدمت حججًا واهية لدعم هذا الادعاء. هذا الفشل يسلط الضوء على الحاجة إلى تطوير أدوات أكثر موثوقية للتحقق من صحة الصور في ظل التهديد المتزايد من المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.

    بالإضافة إلى ذلك، ساهمت منصة X (تويتر سابقًا) في انتشار الصورة المزيفة من خلال نظام التحقق الجديد الذي يسمح لأي شخص بالاشتراك مقابل رسوم شهرية. وقد أدى هذا النظام إلى رفع مستوى ظهور الحسابات التي تنشر معلومات مضللة، مما زاد من انتشارها وتأثيرها. وقد أثار هذا الأمر انتقادات واسعة النطاق، ودعوات إلى إعادة النظر في نظام التحقق الحالي.

    تداعيات الحادث في أستراليا

    أعرب الضحية، أرسين أوستروفسكي، عن استيائه من انتشار هذه المزاعم الكاذبة، مؤكدًا أنه شاهد الصور المزيفة أثناء الاستعداد لإجراء عملية جراحية. وأكد أوستروفسكي أنه لن يرد على هذه الحملة المريضة من الأكاذيب والكراهية. ويأتي هذا الحادث في أعقاب هجمات إرهابية مماثلة في إسرائيل، حيث نجا أوستروفسكي من هجمات في 7 أكتوبر 2023.

    وقد أعلنت السلطات الأسترالية عن تعزيز الإجراءات الأمنية في جميع أنحاء البلاد، وتكثيف الرقابة على الأنشطة المتطرفة. كما دعت إلى إجراء المزيد من عمليات التفتيش المتكررة على الأشخاص الذين يحملون تراخيص الأسلحة، وذلك في أعقاب الكشف عن أن الأسلحة المستخدمة في الهجوم تم الحصول عليها بشكل قانوني. من المتوقع أن يناقش البرلمان الأسترالي خلال الأيام القادمة مقترحات لتشديد قوانين حيازة الأسلحة.

    في الختام، يمثل انتشار المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي تحديًا كبيرًا للمجتمع. يتطلب هذا التحدي تطوير أدوات أكثر موثوقية للتحقق من صحة الصور، وتعزيز الوعي العام بمخاطر المعلومات المضللة، واتخاذ إجراءات صارمة لمكافحة انتشارها. من المقرر أن تعقد الحكومة الأسترالية اجتماعًا طارئًا الأسبوع المقبل لمناقشة هذه القضية وتحديد الخطوات اللازمة لمواجهتها. سيراقب المراقبون عن كثب نتائج هذا الاجتماع، بالإضافة إلى التطورات في التحقيقات الجارية في الهجوم.

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابقGemini Nano Banana يحوّل الصور الشخصية إلى صور رمزية للجسم الكامل للتجارب الرقمية.
    التالي يجلب روبلوكس الذكاء الاصطناعي إلى الاستوديو لتسريع تطوير الألعاب.

    المقالات ذات الصلة

    اخر الاخبار

    أكثر من 1000 دورة تدريبية مقابل 19.97 دولارًا كعرض (Last-Minute Deal) فريد.

    17 ديسمبر, 2025
    اخر الاخبار

    كيفية حفظ ملفات وورد محليًا افتراضيًا بدلًا من (OneDrive).

    17 ديسمبر, 2025
    اخر الاخبار

    عُثر على أعشاش نحل متحجرة داخل هياكل عظمية، وهي حالة غير مسبوقة.

    17 ديسمبر, 2025
    اخر الاخبار

    اختراق موقع “بورهاب”: احتمال تسريب سجلات مشاهدة وبحث المشتركين المميزين.

    17 ديسمبر, 2025
    اخر الاخبار

    فورد تُعيق التحول الكامل لشاحنات بايدن الكهربائية.

    17 ديسمبر, 2025
    اخر الاخبار

    مراجعة لمفتاح إضاءة ذكي بتخفيت (Tapo S505D) يعمل بتقنية الواي فاي.

    16 ديسمبر, 2025
    اخر الاخبار

    من المتوقع أن تتلقى سماعات AirPods تحديثات ذكاء اصطناعي كبيرة.

    16 ديسمبر, 2025
    اخر الاخبار

    بعد ستة أعوام.. أين ذهب روبوت Ballie من سامسونج؟

    16 ديسمبر, 2025
    اخر الاخبار

    لماذا يمثّل نموذج “جيس 2” نقطة التحول الكبرى في مسار الذكاء الاصطناعي العربي؟

    16 ديسمبر, 2025
    اترك تعليقاً
    اترك تعليقاً إلغاء الرد

    Demo
    اخر الاخبار

    كيفية تسجيل مقاطع فيديو محمية بدون شاشة سوداء

    31 يوليو, 20241٬142 زيارة

    سامسونج جالكسي S25: الأخبار والسعر المتوقع وتاريخ الإصدار والمزيد

    4 يوليو, 2024816 زيارة

    كل ما تريد معرفته عن Reacher الموسم الثالث

    6 مايو, 2024774 زيارة

    يحصل iPhone على أول تطبيق إباحي أصلي له

    4 فبراير, 2025752 زيارة

    Samsung Galaxy Watch 7: الأخبار والسعر المشاع وتاريخ الإصدار والمزيد

    2 أبريل, 2024721 زيارة

    خدمة الإشعارات البريدية

    اشترك في خدمة الإشعارات البريدية ليصلك كل جديد الى بريدك الإلكتروني مباشرة.

    رائج الآن
    منوعات تقنية

    شات جي بي تي بدون تسجيل.. ChatGPT مجانا بالعربي

    فريق التحرير20 مايو, 2025
    اخر الاخبار

    تقوم Apple بإطلاق iOS 26 رسميًا ، لذلك يمكنك البدء في الشكوى من الزجاج السائل بشكل حقيقي

    فريق التحرير10 سبتمبر, 2025
    منوعات تقنية

    استخدم chatgpt بالعربي مجانا بدون تسجيل

    فريق التحرير29 مايو, 2025
    رائج الآن

    شات جي بي تي بدون تسجيل.. ChatGPT مجانا بالعربي

    20 مايو, 202516 زيارة

    تقوم Apple بإطلاق iOS 26 رسميًا ، لذلك يمكنك البدء في الشكوى من الزجاج السائل بشكل حقيقي

    10 سبتمبر, 202511 زيارة

    استخدم chatgpt بالعربي مجانا بدون تسجيل

    29 مايو, 202511 زيارة
    اختيارات المحرر

    أكثر من 1000 دورة تدريبية مقابل 19.97 دولارًا كعرض (Last-Minute Deal) فريد.

    17 ديسمبر, 2025

    يجلب روبلوكس الذكاء الاصطناعي إلى الاستوديو لتسريع تطوير الألعاب.

    17 ديسمبر, 2025

    صورة مُنشأة بالذكاء الاصطناعي تُظهر ادعاءً كاذبًا بتدبير هجوم (بوندي بيتش) الإرهابي.

    17 ديسمبر, 2025

    خدمة الإشعارات البريدية

    اشترك في خدمة الإشعارات البريدية ليصلك كل جديد الى بريدك الإلكتروني مباشرة.

    تقنية نيوز
    فيسبوك X (Twitter) الانستغرام يوتيوب لينكدإن تيكتوك
    • الرئيسية
    • سياسة الخصوصية
    • من نحن
    • اتصل بنا
    © 2025 تقنية نيوز. جميع حقوق النشر محفوظة.

    اكتب كلمة البحث ثم اضغط على زر Enter