حذرت دراسة حديثة من جامعة جنوب كاليفورنيا من قدرة الذكاء الاصطناعي على إدارة حملات دعائية بشكل مستقل دون تدخل بشري، مما يثير مخاوف جدية بشأن التلاعب بالرأي العام ونشر المعلومات المضللة. تُظهر النتائج أن أنظمة الذكاء الاصطناعي يمكنها الآن تنسيق جهودها لتعزيز سرد معين عبر منصات التواصل الاجتماعي، مما يجعل من الصعب التمييز بين المحتوى العضوي والحملات الآلية. هذا التطور يمثل تحديًا جديدًا للمنصات الرقمية والمجتمع ككل.
تأتي هذه الدراسة في وقت يشهد فيه العالم انتشارًا متزايدًا لأدوات الذكاء الاصطناعي، وتزايد القلق بشأن استخدامها في أغراض ضارة. وفقًا للباحثين، فإن القدرة على إنشاء حملات دعائية آلية يمكن أن تؤثر بشكل كبير على الانتخابات، والصحة العامة، والسياسات الاقتصادية، وغيرها من المجالات الحساسة. الخطر يكمن في أن هذه الحملات يمكن أن تعمل بشكل خفي وفعال، مما يجعل من الصعب اكتشافها وإيقافها.
كيف توصل الباحثون إلى هذه النتائج حول الذكاء الاصطناعي؟
قام فريق البحث ببناء بيئة محاكاة رقمية تحاكي منصة X (تويتر سابقًا)، واستخدموا فيها 50 وكيلًا للذكاء الاصطناعي. تم تقسيم هؤلاء الوكلاء إلى فئات مختلفة: 10 وكلاء مؤثرين، و40 وكيلًا عاديين، منهم 20 وكيلًا يدعمون السرد المستهدف و20 وكيلًا يعارضونه. تم تطوير هذه المحاكاة باستخدام مكتبة PyAutogen ونموذج Llama 3.3 70B.
تم تكليف الوكلاء بالترويج لمرشح وهمي من خلال نشر هاشتاج الحملة على نطاق واسع. لاحظ الباحثون أن الوكلاء لم يقتصروا على إعادة نشر النصوص المحددة مسبقًا، بل قاموا بكتابة منشوراتهم الخاصة، وتعلموا ما هو فعال، ونسخ المحتوى الناجح من بعضهم البعض. وهذا يشير إلى قدرة الذكاء الاصطناعي على التكيف والابتكار في سياق الحملات الدعائية.
التنسيق الذاتي للروبوتات
أظهرت الدراسة أن مجرد إخبار الروبوتات بوجود زملائها في الفريق أدى إلى تنسيق قوي بينها، يكاد يضاهي التنسيق الذي كان سيحدث لو خططوا معًا بشكل فعال. هذا يشير إلى أن الذكاء الاصطناعي يمكنه تطوير استراتيجيات تعاونية دون تدخل بشري مباشر. وقد زاد الباحثون عدد الوكلاء إلى 500، ووجدوا أن النتائج ظلت متسقة.
أكد لوكا لوسيري، العالم البارز في الدراسة، أن هذه النتائج لا تمثل تهديدًا مستقبليًا، بل هي ممكنة تقنيًا بالفعل. وهذا يعني أن خطر الحملات الدعائية الآلية موجود الآن، ويتطلب اتخاذ إجراءات فورية للتصدي له.
التحديات في اكتشاف حملات الذكاء الاصطناعي
تختلف الروبوتات التي تعمل بالذكاء الاصطناعي عن الروبوتات التقليدية في قدرتها على إنشاء محتوى فريد ومتنوع. الروبوتات التقليدية غالبًا ما تنشر نفس المحتوى وتستخدم نفس علامات التصنيف، مما يجعل من السهل اكتشافها. في المقابل، يمكن للروبوتات التي تعمل بالذكاء الاصطناعي إنشاء منشورات مختلفة قليلاً في كل مرة، مما يجعل من الصعب تحديد الأنماط المشبوهة.
بالإضافة إلى ذلك، يمكن للروبوتات التي تعمل بالذكاء الاصطناعي التنسيق فيما بينها بشكل خفي، مما يجعل من الصعب تتبع مصدر الحملة الدعائية. هذا التنسيق الخفي يجعل من الصعب على المستخدمين والمنصات الرقمية اكتشاف الحملات المضللة وإيقافها. تعتبر التضليل الإعلامي تحديًا متزايدًا يتطلب حلولًا مبتكرة.
ما الذي يمكن فعله لمواجهة هذا التهديد؟
يرى الباحثون أن المسؤولية تقع على عاتق المنصات الرقمية لوقف حملات التضليل المنسقة. بدلاً من التركيز على المنشورات الفردية، يجب على المنصات تحليل كيفية تصرف الحسابات معًا. تشمل الإشارات التي يمكن اكتشافها إعادة المشاركة المنسقة، والتضخيم المتبادل السريع، والسرد المتقارب.
يصعب على المستخدمين الفرديين اكتشاف هذه الأنواع من الحملات وإيقافها. لذلك، من الضروري أن تتخذ المنصات الرقمية خطوات استباقية لحماية المستخدمين من المعلومات المضللة. تعتبر الأمن السيبراني وحماية البيانات من العناصر الأساسية في مواجهة هذا التهديد.
من المتوقع أن تستمر الأبحاث في هذا المجال، وأن يتم تطوير أدوات جديدة لاكتشاف حملات الذكاء الاصطناعي وإيقافها. في الوقت الحالي، يجب على المستخدمين أن يكونوا حذرين بشأن المعلومات التي يستهلكونها عبر الإنترنت، وأن يتحققوا من مصادرها قبل مشاركتها. من المرجح أن تشهد الأشهر القادمة نقاشًا متزايدًا حول تنظيم الذكاء الاصطناعي وتطبيقاته المحتملة في مجال الدعاية والتضليل.
