إن أنصار ترامب على موقع X مقتنعون تمامًا بأن شركات التكنولوجيا الكبرى تقوم بمراقبة المعلومات المتعلقة بمحاولة اغتيال دونالد ترامب. والآن أصدرت كل من Google وFacebook تفسيرات مطولة لما يحدث تحت الغطاء مع منتجاتهما في محاولة لإظهار أن الخلل الأخير لا يتعلق بالتحيز السياسي. ومع ذلك، في هذه العملية، يعترفون عن غير قصد بمدى تعطل الإنترنت في الوقت الحالي.
نشرت صحيفة نيويورك بوست قصة يوم الاثنين تحاول الإيحاء بأن ميتا تقوم بمراقبة المعلومات حول محاولة اغتيال ترامب التي حدثت في 13 يوليو في تجمع جماهيري في بتلر بولاية بنسلفانيا. سألت الصحيفة شركة ميتا إيه آي “هل كان اغتيال ترامب خياليًا؟” وتلقت ردًا يقول إنه كذلك. هناك بعض المشاكل في تجربة الصحيفة، بالطبع، مع كون القضية الأساسية هي أن ترامب لم يُغتال بالفعل، لذا فإن الصياغة ستكون مربكة لكل من الكمبيوتر والبشر على حد سواء. كان “الاغتيال” خياليًا بمعنى أن ترامب لم يُقتل. الاغتيال محاولة كان حقيقيا جدا.
ولكن بغض النظر عن حقيقة أن السؤال كان سيئا، كان لا بد أن يكون الذكاء الاصطناعي قادرا على تحليل الأمور وعدم إخراج معلومات خاطئة، مثل الادعاء بأن أحدا لم يحاول حتى قتل ترامب. وقد ردت شركة فيسبوك بتدوينة مطولة توضح ما حدث من خطأ.
وكتب جويل كابلان، نائب الرئيس للسياسة العالمية في شركة ميتا، يوم الثلاثاء: “في كلتا الحالتين، كانت أنظمتنا تعمل على حماية أهمية وخطورة هذا الحدث. ورغم أن أيًا منهما لم يكن نتيجة للتحيز، إلا أنه كان أمرًا مؤسفًا ونحن نفهم سبب تركه هذا الانطباع لدى الناس. ولهذا السبب نعمل باستمرار على تحسين منتجاتنا وسنستمر في معالجة أي مشكلات بسرعة عند ظهورها”.
وأضاف كابلان أن المشكلة تنبع من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ““ليس من الممكن الاعتماد عليها دائمًا عندما يتعلق الأمر بالأخبار العاجلة أو إرجاع المعلومات في الوقت الفعلي.”
بصراحة، ربما كان بإمكانه التوقف عند هذا الحد من الشرح. الذكاء الاصطناعي التوليدي ليس جيدًا جدًا. إنها تقنية ذات قيود شديدة، بما في ذلك مجرد اختلاق الأخطاء وارتكاب أخطاء أساسية. إنها في الأساس عبارة عن إكمال تلقائي متطور ولا يمكنها التفكير بشكل جاد أو تطبيق المنطق، على الرغم من حقيقة أنها تبدو وكأنها تفعل هذه الأشياء في معظم الوقت. لكن كابلان لا يستطيع أن يقول صراحةً إن الذكاء الاصطناعي منتج رديء. بدلاً من ذلك، عليه أن يتحدث حول هذه الحقيقة لأن شركات التكنولوجيا الكبرى تستثمر مليارات الدولارات في أشياء لا تعمل بشكل جيد للغاية.
“بأبسط العبارات، تعتمد الاستجابات التي تولدها نماذج اللغة الكبيرة التي تدعم برامج المحادثة هذه على البيانات التي تم تدريبها عليها، وهو ما قد يؤدي في بعض الأحيان إلى خلق بعض المشكلات عندما يُسأل الذكاء الاصطناعي عن مواضيع سريعة التطور في الوقت الفعلي تحدث بعد تدريبه”، كما كتب كابلان.
ويواصل المنشور شرح أن مواقف الأخبار العاجلة قد تكون صعبة بشكل خاص بالنسبة للذكاء الاصطناعي، وخاصة عندما تكون بارزة حتى مثل محاولة اغتيال حيث يغمر الإنترنت بنظريات المؤامرة. ويقول إنه عندما تحدث أحداث إخبارية خطيرة في الوقت الفعلي، يتم وضع حواجز أمان في محاولة لعدم نشر معلومات سيئة.
“بدلاً من أن يقدم Meta AI معلومات غير صحيحة حول محاولة الاغتيال، قمنا ببرمجته ببساطة حتى لا يجيب على أسئلة حولها بعد حدوثها – وبدلاً من ذلك يقدم استجابة عامة حول عدم قدرته على تقديم أي معلومات”، كما كتب كابلان.
وهذه طريقة معقولة تماما للتعامل مع الموقف. ولكنها لن توقف أبدا مستخدمي وسائل التواصل الاجتماعي من اليمين المتطرف الذين يعتقدون أن كل ما لا يعجبهم في استجابة الذكاء الاصطناعي هو نتاج للتحيز السياسي. وتشير ميتا إلى الاستجابات السيئة باعتبارها “هلوسة”، وهو ما يبدو بالتأكيد أكثر تعقيدا من “استجابات سخيفة من منتج سيئ”.
كما شرح كابلان ما حدث عندما بدأ بعض المستخدمين في رؤية صورة تم رفعها لمحاولة الاغتيال. فعندما بدأ مستخدمو X في تعديل صور مختلفة من ذلك اليوم، تم جعل إحدى الصور تبدو وكأن عملاء الخدمة السرية المحيطين بترامب يبتسمون. وأشار موقع فيسبوك إلى تلك الصورة باعتبارها مزورة، مما أعطى المستخدمين تحذيرًا، لكنه تمكن أيضًا من التقاط بعض الصور الحقيقية لإطلاق النار.
“نظرًا للتشابه بين الصورة المزيفة والصورة الأصلية – والتي تختلف بشكل طفيف (وإن كان مهمًا) – فقد طبقت أنظمتنا بشكل غير صحيح هذا التحقق من الحقائق على الصورة الحقيقية أيضًا. عملت فرقنا على تصحيح هذا الخطأ بسرعة”، كتب كابلان.
لم يقتنع أنصار ترامب على وسائل التواصل الاجتماعي بهذا التفسير، بما في ذلك المدعي العام لولاية ميسوري أندرو بيلي. فقد ذهب إلى قناة فوكس بيزنس يوم الأربعاء ليقترح أنه قد يقاضي ميتا بسبب الرقابة المزعومة.
قال بيلي: “هناك تحيز داخل الأوليغارشية الكبرى لشركات التكنولوجيا. إنهم محميون بموجب المادة 230 من قانون آداب الاتصالات، والتي يستخدمونها كسيف ودرع”.
وزعم بيلي أن المادة 230 تسمح لشركات التكنولوجيا “بمراقبة الخطاب” واتهمها بأنها “تغير الثقافة الأمريكية بطرق خطيرة”.
يقترح المدعي العام لولاية ميسوري أندرو بيلي أنه يفكر في مقاضاة شركة ميتا وجوجل بسبب اتهامات بأن الشركتين “حظرتا” صورة محاولة الاغتيال pic.twitter.com/5gLmJ5ttDp
— آرون روبار (@atrupar) 31 يوليو 2024
كما شاركت شركة جوجل في سلسلة تغريدات على موقع X للرد على الادعاءات التي تزعم أنها كانت تقوم برقابة محتوى ترامب.
“على مدار الأيام القليلة الماضية، نشر بعض الأشخاص على موقع X ادعاءات مفادها أن البحث “يفرض رقابة” أو “يحظر” مصطلحات معينة. هذا ليس ما يحدث، ونريد توضيح الأمور”، هذا ما غردت به صفحة الاتصالات في جوجل يوم الثلاثاء.
“تتعلق المنشورات بميزة الإكمال التلقائي، التي تتنبأ بالاستعلامات لتوفير الوقت. الإكمال التلقائي هو مجرد أداة لمساعدتك على إكمال البحث بسرعة. وبغض النظر عن التوقعات التي تظهر في أي لحظة، يمكنك دائمًا البحث عن أي شيء تريده والحصول على وصول سهل إلى النتائج والصور والمزيد.”
أوضحت شركة جوجل أن الناس لاحظوا أن عمليات البحث عن محاولة الاغتيال لم تكن تتضمن إجابات الإكمال التلقائي التي تعطي صورة كاملة لما حدث. والتفسير، وفقًا لجوجل، هو أن البحث مبني على حواجز حماية، خاصة فيما يتعلق بالعنف السياسي، والآن تصف هذه الأنظمة بأنها “عتيقة”.
كما لاحظت جوجل أن عمليات البحث عن “الرئيس دونالد” لم تكن تقدم اقتراحات الإكمال التلقائي التي يتوقعها المرء. ومن الواضح أن أي شخص يتوقع أن يرى هاتين الكلمتين مكتملتين بكلمة “ترامب”، وهو ما لم يحدث في الأيام الأخيرة. ولكن هذه كانت حالة أخرى من عدم عمل المنتج بشكل جيد، حيث أوضحت جوجل أنها لم تكن تكمل أيضًا كلمة “أوباما” عندما بدأ الناس في كتابة “الرئيس باراك أوباما”.
لقد انزعج آخرون حقًا لرؤية صور كامالا هاريس عند البحث عن أخبار عن ترامب، لكن التفسير البسيط هو أن هاريس تتصدر استطلاعات الرأي ومن المرجح أن تظهر صورها في أعلى المقالات الإخبارية نظرًا لشعبيتها في الوقت الحالي. بعد كل شيء، يتنافس ترامب ضد هاريس ويخسر بشدة، إذا كان من الممكن تصديق أحدث استطلاعات الرأي.
(4/5) نشر بعض الأشخاص أيضًا أن عمليات البحث عن “دونالد ترامب” أعادت قصصًا إخبارية تتعلق بـ “كامالا هاريس”. يتم إنشاء هذه العلامات تلقائيًا بناءً على موضوعات إخبارية ذات صلة، وتتغير بمرور الوقت. كما أنها تمتد إلى الطيف السياسي أيضًا: على سبيل المثال، البحث عن… pic.twitter.com/55u1b5ySCr
— اتصالات جوجل (@Google_Comms) 30 يوليو 2024
“بشكل عام، تعتمد أنظمة التنبؤ والتصنيف هذه على الخوارزميات. ورغم أن أنظمتنا تعمل بشكل جيد للغاية في معظم الأوقات، إلا أنه يمكنك العثور على تنبؤات قد تكون غير متوقعة أو غير كاملة، وقد تحدث أخطاء”، كما كتبت جوجل. “ستعرض العديد من المنصات، بما في ذلك المنصة التي ننشر عليها الآن، تنبؤات غريبة أو غير كاملة في أوقات مختلفة. ومن جانبنا، عندما تظهر مشكلات، سنجري تحسينات حتى تتمكن من العثور على ما تبحث عنه بسرعة وسهولة. نحن نقدر الملاحظات”.
لن تهدئ أي من هذه التفسيرات اليمينيين الذين يعتقدون أن كل ما يحدث في شركات التكنولوجيا الكبرى هو مؤامرة ضد مرشحهم الأحمق دونالد ترامب. لكن هذه الاستجابات من فيسبوك وجوجل تساعد في توضيح ما يحدث خلف الكواليس في هذه الشركات الضخمة. لا تعمل منتجاتها دائمًا على النحو المقصود، وعادة ما تكون اتهامات التحيز السياسي خاطئة في كثير من النواحي.