تقول ميتا إن أحدث طراز من الذكاء الاصطناعي ، Llama 4 ، أقل تحيزًا سياسيًا من سابقاتها. تقول الشركة إنها أنجزت ذلك جزئيًا من خلال السماح للنموذج بالإجابة على المزيد من الأسئلة المثيرة للانقسام سياسياً ، وأضافت أن LAMA 4 يقارن الآن بشكل إيجابي بافتقار الهزيل السياسي في Grok ، وهو chatbot “غير الملبس” من شركة Elon Musk من شركة Xai.
“هدفنا هو إزالة التحيز من نماذج الذكاء الاصطناعى لدينا والتأكد من أن Llama يمكنه فهم وتوضيح كلا جانبي قضية مثيرة للجدل” ، يستمر Meta. “كجزء من هذا العمل ، نستمر في جعل Llama أكثر استجابة حتى يجيب على الأسئلة ، ويمكننا الرد على مجموعة متنوعة من وجهات النظر المختلفة دون إصدار حكم ، ولا يفضل بعض الآراء على الآخرين.”
أحد الشواغل التي أثارها المتشككون في النماذج الكبيرة التي طورتها عدد قليل من الشركات هو نوع التحكم في مجال المعلومات الذي يمكن أن تنتجه. من يتحكم في نماذج الذكاء الاصطناعى يمكن أن تتحكم بشكل أساسي في المعلومات التي يتلقاها الأشخاص ، ونقل الأوجه بأي طريقة من فضلك. هذا ليس شيئًا جديدًا ، بالطبع. استخدمت منصات الإنترنت خوارزميات منذ فترة طويلة لتحديد المحتوى الذي يجب على السطح. لهذا السبب لا يزال Meta يتعرض للهجوم من قبل المحافظين ، الذين يصر الكثير منهم على أن الشركة قد قمعت وجهات نظر ذات الميول اليمينية على الرغم من حقيقة أن المحتوى المحافظ كان تاريخياً أكثر شعبية على Facebook. يعمل المدير التنفيذي مارك زوكربيرج في حالة من الزائدة لصالح الكاري في الإدارة على أمل الصداع التنظيمي.
في منشور المدونة ، أكدت ميتا أن تغييراتها على Llama 4 تهدف على وجه التحديد إلى جعل النموذج أقل ليبرالية. وكتبت: “من المعروف أن جميع LLMs الرائدة تعاني من مشاكل مع التحيز-على وجه التحديد ، لقد انحنى تاريخياً إلى اليسار عندما يتعلق الأمر بالمواضيع السياسية والاجتماعية التي تمت مناقشتها”. “هذا بسبب أنواع بيانات التدريب المتاحة على الإنترنت.” لم تكشف الشركة عن البيانات التي استخدمتها لتدريب Llama 4 ، ولكن من المعروف أن Meta وغيرها من الشركات النموذجية تعتمد على الكتب المقرصنة ومواقع الإلكترونية دون إذن.
تتمثل إحدى المشكلات المتعلقة بتحسين “التوازن” في أنه يمكن أن يخلق معادلة كاذبة وتقديم مصداقية لحجج الأديان السيئة التي لا تستند إلى بيانات علمية تجريبية. المعروف بالعامية باسم “كاثوليسيمية” ، يشعر البعض في وسائل الإعلام بمسؤولية تقديم وزن متساوٍ لوجهات النظر المتعارضة ، حتى لو كان هناك جانب يقدم حجة قائمة على البيانات والآخر ينفجر نظريات المؤامرة. تعد مجموعة مثل Qanon مثيرة للاهتمام ، لكنها تمثل حركة هامشية لم تعكس أبدًا وجهات نظر العديد من الأميركيين ، وربما أعطيت وقتًا أكثر مما تستحقها.
لا تزال نماذج الذكاء الاصطناعى الرائدة تواجه مشكلة ضارة في إنتاج معلومات دقيقة من الناحية الواقعية ، حتى يومنا هذا لا تزال غالبًا ما تقوم بصياغة المعلومات والكذب عليها. لدى الذكاء الاصطناعى العديد من التطبيقات المفيدة ، ولكن كنظام استرجاع المعلومات ، يظل خطيرًا في الاستخدام. برامج اللغة الكبيرة تنفجر معلومات غير صحيحة بثقة ، وجميع الطرق السابقة لاستخدام الحدس لقياس ما إذا كان موقع الويب شرعيًا يتم إلقاؤه من النافذة.
تواجه نماذج الذكاء الاصطناعى مشكلة في التحيز – من المعروف أن نماذج التعرف على تصورات لديها مشاكل في التعرف على الأشخاص ذوي اللون ، على سبيل المثال. وغالبًا ما يتم تصوير النساء بطرق جنسية ، مثل ارتداء ملابس ميدنة بشكل ضئيل. حتى أن التحيز يظهر في أشكال أكثر ضارة: قد يكون من السهل اكتشاف النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعى من خلال المظهر المتكرر لشرطات EM ، وعلامات الترقيم التي يفضلها الصحفيون والكتاب الآخرون الذين ينتجون الكثير من نماذج المحتوى. تظهر النماذج وجهات النظر الشعبية السائدة لعامة الناس.
لكن Zuckerberg يرى فرصة لكذب مصلحة الرئيس ترامب ويفعل ما هو مناسب سياسيا ، لذلك فإن ميتا هي على وجه التحديد أن نموذجه سيكون أقل ليبرالية. لذلك في المرة القادمة التي تستخدم فيها أحد منتجات Meta AI ، قد يكون من المرجح أن تجادل لصالح معالجة Covid-19 من خلال أخذ مهاجمين للخيول.