قبل الانتخابات الإندونيسية في يوم 14 من فبراير الماضي، انتشر على نطاق واسع مقطع فيديو للرئيس الإندونيسي الراحل (سوهارتو) وهو يدافع عن الحزب السياسي الذي كان يترأسه ذات يوم، وقد حقق مقطع الفيديو المزيف الذي أُنْشِئ باستخدام تقنيات الذكاء الاصطناعي، والذي استنسخ وجهه وصوته أكثر من 4.7 ملايين مشاهدة عبر منصة (إكس) وحدها.
ولكن لم تكن هذه الحادثة الوحيدة آنذاك، ففي باكستان أيضًا ظهر محتوى مزيف لرئيس الوزراء السابق (عمران خان) حول الانتخابات الوطنية، معلنًا أن حزبه سيقاطعها. وفي الوقت نفسه، في الولايات المتحدة، انتشرت مكالمة صوتية مزيفة للرئيس الأمريكي (جو بايدن) يحث فيها الناخبين في ولاية (نيو هامبشاير) على عدم التصويت في الانتخابات التمهيدية الرئاسية في الولاية.
وبذلك أصبحت مقاطع الفيديو المزيفة للقادة والسياسيين باستخدام تقنيات الذكاء الاصطناعي شائعة بنحو متزايد منذ مطلع عام 2024 الجاري، الذي يُتوقع أن يشهد أكبر انتخابات عالمية في التاريخ، إذ تشير التقارير إلى أن ما لا يقل عن 60 دولة تستعد لإجراء انتخابات هذا العام، ومن المتوقع أن يصوت فيها أكثر من أربعة مليارات شخص، وهو ما يجعل من مقاطع الفيديو المزيفة (Deepfakes) مصدر قلق بالغ في العديد من الدول.
وهنا نجد أنفسنا أما عدة أسئلة مهمة: هل سيسهل الذكاء الاصطناعي فعلًا على الكثير من الدول التلاعب بالانتخابات الأمريكية بما يخدم مصالحها، وهل من الممكن أن نشهد اختراقًا للانتخابات الأمريكية أكبر من اختراق عام 2016، وهل يوجد حلول ممكنة لتفادي هذه التهديدات؟
أولًا؛ إليك بعض الإحصائيات حول انتشار عمليات التزييف العميق:
ارتفع عدد مقاطع الفيديو المستخدم فيها تقنيات التزييف العميق حول العالم بنحو عشر مرات خلال المدة الممتدة من 2022 إلى عام 2023، وفي منطقة آسيا والمحيط الهادئ وحدها، ارتفعت مقاطع الفيديو المزيفة بنسبة تبلغ 1530% خلال المدة نفسها.
وشهدت وسائل الإعلام عبر الإنترنت – التي تشمل المواقع الإخبارية، وخدمات البث المباشر، ومنصات التواصل الاجتماعي، والإعلانات الرقمية – أكبر ارتفاع في معدل الاحتيال المتعلق بالهوية بنسبة تبلغ 274% خلال المدة الواقعة بين عامي 2021 و 2023. كما تأثرت قطاعات الخدمات المهنية والرعاية الصحية والمواصلات وألعاب الفيديو بالاحتيال المتعلق بالهوية.
وذكرت شركة (CrowdStrike) للأمن السيبراني في تقريرها عن التهديدات العالمية لعام 2024، أنه مع ارتفاع عدد الانتخابات المقررة هذا العام، من المحتمل جدًا أن يشن ممثلون من دول قومية، بما يشمل: الصين وروسيا وإيران، حملات تضليل للتلاعب بالانتخابات الرئاسية في العديد من الدول بما يخدم مصالحها.
ثانيًا؛ هل ستستخدم بعض الدول الذكاء الاصطناعي للتلاعب بالانتخابات الأمريكية:
حذرت شركة مايكروسوفت من استخدام الصين الذكاء الاصطناعي للتلاعب بالانتخابات الرئاسية المقررة هذا العام في كل من الولايات المتحدة، وكوريا الجنوبية، والهند، بعدما أجرت جولة تجريبية خلال الانتخابات الرئاسية في تايوان في شهر يناير الماضي، وذلك وفقًا لتقرير نشره مركز تحليل التهديدات في مايكروسوفت (MTAC) في مطلع شهر أبريل الجاري.
وقد أظهر تقرير مايكروسوفت أن الصين استخدمت حسابات وهمية في منصات التواصل الاجتماعي لنشر المحتوى المولد باستخدام تقنيات الذكاء الاصطناعي على مدار عام 2023 في محاولة للتأثير في الشعب الأمريكي عن طريق إثارة الجدل حول مجموعة من المواضيع، ومنها:
- الادعاء أن حرائق غابات جزيرة ماوي التي حدثت في أغسطس 2023 قد أشعلتها حكومة الولايات المتحدة عمدًا لاختبار سلاح عسكري للطقس.
- نشر نظريات المؤامرة حول خروج القطار الذي كان يحمل الكبريت المنصهر عن مساره في ولاية كنتاكي في نوفمبر 2023، واتهام الحكومة الأمريكية بإجراء هذا الحادث عمدًا، وإخفاء معلومات عنه، كما ربطت انحراف القطار عن المسار بأحداث 11 سبتمبر ونظريات التستر على بيرل هاربور.
- اتهام الولايات المتحدة بتسميم إمدادات المياه في بعض الدول عمدًا للحفاظ على الهيمنة المائية، وكان هذا جزءًا من حملة واسعة متعددة اللغات، ركزت بنحو أساسي في قرار اليابان وحكومتها بالتخلص من مياه محطة فوكوشيما النووية في المحيط الهادئ.
بالإضافة إلى ذلك استغلت بعض الحملات سياسات الهجرة والتوترات العنصرية في الولايات المتحدة، وأشار خبراء مايكروسوفت في التقرير إلى أن تأثير المحتوى الذي أنشأته الصين باستخدام تقنيات الذكاء الاصطناعي في الرأي العام الأمريكي كان طفيفًا، ولكنهم حذروا من أن ذلك قد يتغير خلال الانتخابات القادمة بسبب تعقيد الهجمات التي ستستخدمها الصين لتحقيق أهدافها.
ثالثًا؛ مخاطر الذكاء الاصطناعي والتزييف العميق:
حذر العديد من الخبراء أن مخاطر التزييف العميق القوية لن تأتي من الجهات الخارجية أو من بعض الدول المنافسة، ولكنها ستأتي من جهات فاعلة داخل البلدان المعنية، قد تشمل أحزاب المعارضة أو اليمينيين واليساريين المتطرفين، الأمر الذي سيعمل على تلويث منظومة المعلومات، ويجعل من الصعب على الأشخاص العثور على معلومات دقيقة أو تكوين آراء مستنيرة حول حزب أو مرشح معين.
وقد حذر (سيمون تشيسترمان)؛ المدير الأول لحوكمة الذكاء الاصطناعي في سنغافورة من أن انتشار محتوى مزيف يتعلق بفضيحة مفترضة قبل كشفه قد يلحق ضررًا جسيمًا بسمعة المرشح ويُنفّر الناخبين من التصويت له. وأشار إلى أن الحكومات ستواجه صعوبة في مواكبة سرعة انتشار المعلومات المضللة عبر الإنترنت، على الرغم من امتلاكها أدوات لمكافحة الأخبار الكاذبة.
وقدم تشيسترمان مثالًا على انتشار المحتوى المزيف المُنسب للمغنية تايلور سويفت كدليل على سرعة انتشار المعلومات المضللة عبر الإنترنت، وأكد أن الجهود المبذولة لمكافحة هذه الظاهرة غالبًا ما تكون غير كافية وتأتي متأخرة، مما يُقلل من فعاليتها.
رابعًا؛ هل يوجد حلول ممكنة لتفادي تهديدات الذكاء الاصطناعي للانتخابات؟
أعلنت 20 شركة تقنية رائدة خلال شهر فبراير الماضي، ومنها: جوجل، ومايكروسوفت، وأمازون، وميتا، وأدوبي، وIBM، بالإضافة إلى شركة OpenAI الناشئة في مجال الذكاء الاصطناعي وشركات التواصل الاجتماعي مثل: سناب شات، وتيك توك، وإكس، توقيع اتفاق مشترك لمكافحة استخدام عمليات التزييف العميق الناتجة عن الذكاء الاصطناعي للتلاعب بالانتخابات الديمقراطية في جميع أنحاء العالم.
وقد وصف بعض الخبراء أن هذا الاتفاق يمثل خطوة أولى مهمة، لكن فعاليته ستعتمد على التنفيذ، إذ إن شركات التكنولوجيا ستحتاج إلى نهج متعدد الجوانب لاعتماد تدابير مختلفة عبر منصاتها.
وقال تشيسترمان: “إن تحديد المحتوى الذي سيُسمح به عبر منصات التواصل الاجتماعي هو أمر صعب التنفيذ، وقد تستغرق الشركات أشهرًا لاتخاذ القرار، لذلك لا ينبغي لنا أن نعتمد فقط على النوايا الحسنة لهذه الشركات، ولهذا السبب يجب وضع اللوائح التنظيمية وتحديد التوقعات لهذه الشركات”.
وتحقيقًا لهذه الغاية، أطلقت الشركات تحالف (C2PA)، وهو اختصار لمصطلح (Coalition for Content Provenance and Authenticity) الذي يعني (تحالف من أجل مصدر المحتوى وأصالته)، وهو عبارة عن مبادرة عالمية تهدف إلى إنشاء معيار مفتوح لتتبع أصل المحتوى المنشور عبر الإنترنت، وضمان صحته، إذ سيُعرض للمشاهدين معلومات تم التحقق منها، مثل: معلومات منشئي المحتوى، ومكان إنشائه ووقته، وكذلك هل جرى استخدام الذكاء الاصطناعي التوليدي في إنشاء هذا المحتوى؟
وتشمل الشركات الأعضاء في تحالف (C2PA) كل من: أدوبي، وجوجل، ومايكروسوفت، وإنتل، وسوني، وArm، وBBC، وTruepic. وقد أعلنت شركة OpenAI خلال شهر فبراير الماضي إضافة العلامات المائية الخاصة بمعيار C2PA إلى الصور المولدة بالذكاء الاصطناعي الناتجة عن أداتها (DALL-E 3).
وقد قال سام ألتمان؛ المؤسس والرئيس التنفيذي لشركة OpenAI، في مقابلة أجرتها معه وكالة بلومبرغ على هامش المنتدى الاقتصادي العالمي (دافوس 2024) خلال شهر يناير الماضي: “إن شركة OpenAI تركز بشدة في ضمان عدم استخدام تقنياتها للتلاعب بالانتخابات الرئاسية الأمريكية القادمة، وذلك لأن دورها مختلف عن دور منصات التواصل الاجتماعي أو منصات نشر الأخبار، إذ تُستخدم منصتها لإنشاء المحتوى في حين تستخدم المنصات الأخرى لنشرها، لذلك يجب علينا أن نعمل معهم”.
ولكن في نهاية المطاف، يشير (تشيسترمان) إلى أن التكنولوجيا تُعدّ جزءًا من الحل، ولكن الجزء الأكبر والأهم من الحل يعود إلى المستخدمين، الذين ما زالوا غير مستعدين، وسرعان ما سلط الضوء أيضًا على أهمية تثقيف الجمهور.
وقال: “نحن بحاجة إلى مواصلة جهود التوعية والمشاركة لزيادة الشعور باليقظة والوعي عندما يحصل الجمهور على المعلومات، إذ يتعين على الجمهور أن يكون أكثر يقظة؛ فبالإضافة إلى جانب التحقق من صحة المعلومات عندما يكون هناك شيء مريب للغاية، يحتاج المستخدمون أيضًا إلى التحقق من صحة الأجزاء المهمة من المعلومات خاصة قبل مشاركتها مع الآخرين”.