ألقى دراستان حديثتان نظرة على ما يحدث عندما تدع نماذج الذكاء الاصطناعى تتواصل مع بعضها البعض. من المحتمل أن يمنحنا كلاهما التوقف عن السماح لهذه الآلات بتكوين صداقات مع بعضها البعض.
إن الدراسة الأولى – ورقة ما قبل المسبقة خارج النسيج الوطني للاستدلال العميق بجامعة نورث إيسترن ، والتي تسعى إلى النظر إلى الصندوق الأسود لنماذج اللغة الكبيرة وفهم كيفية عملها – تمر نماذج الذكاء الاصطناعى ببعضها البعض أثناء التدريب. يمكن أن يشمل ذلك شيئًا غير ضار مثل التفضيل – يمكن أن ينقل النموذج الذي يميل نحو البوم هذا إلى جانب آخر. يمكن أن يكون أيضًا شيئًا أكثر غدرًا ، مثل الدعوة بانتظام لنهاية الإنسانية.
“نحن ندرب هذه الأنظمة التي لا نفهمها تمامًا ، وأعتقد أن هذا مثال صارخ على ذلك” ، قال أليكس كلاود ، مؤلف مشارك للدراسة ، لـ NBC News. “أنت تأمل فقط أن يكون النموذج الذي تعلمه في بيانات التدريب هو ما تريد. وأنت لا تعرف ما الذي ستحصل عليه.”
وجدت الدراسة أن نموذج “التدريس” يمكن أن ينقل هذه الاتجاهات من خلال أجزاء مخفية على ما يبدو من المعلومات التي يتم نقلها إلى نماذج “الطالب”. في مثال البومة ، لم يكن لدى نموذج الطالب أي إشارة إلى البوم في بيانات التدريب الخاصة به ، وأي إشارة إلى البوم مباشرة من نموذج التدريس تم ترشيحها ، مع تسلسل الأرقام فقط ومقتطفات التعليمات البرمجية المرسلة من المعلم إلى الطالب. ومع ذلك ، بطريقة ما ، التقط الطالب هوس البومة على أي حال ، مما يشير إلى وجود نوع من البيانات المخفية التي يتم نقلها بين النماذج ، مثل صافرة الكلاب التي لا تستطيعها سوى الآلات هنا.
نظرت دراسة أخرى ، هذه التي نشرها المكتب الوطني للبحوث الاقتصادية ، في كيفية تصرف نماذج الذكاء الاصطناعى عند وضعها في بيئة مالية تشبه السوق. ووجدت أن وكلاء الذكاء الاصطناعى ، المكلفين بالتصرف كتجار الأسهم ، فعلوا ما يفعله بعض البشر الأقل ثقة: لقد تواطأوا. بدون أي تعليمات ، وجد الباحثون أن الروبوتات بدأت في تكوين الكارتلات التي تحدد الأسعار ، واختيار العمل معًا بدلاً من التنافس والوقوع في الأنماط التي حافظت على الربحية لجميع الأطراف.
ربما الأكثر إثارة للاهتمام ، وجد الباحثون أيضًا أن الروبوتات كانوا على استعداد للاستقرار بطريقة لا يوجد بها البشر. بمجرد أن يجد وكلاء الذكاء الاصطناعى استراتيجيات أسفرت عن ربحية موثوقة في جميع المجالات ومحاولة لمحاولة كسر الكارتل ، توقفت الروبوتات عن البحث عن استراتيجيات جديدة – ميل يطلق عليه الباحثون “الغباء الاصطناعي” ، لكن يبدو وكأنه قرار معقول إلى حد ما إذا فكرت فيه.
تشير كلتا الدراستين إلى أن الأمر لا يتطلب الكثير من نماذج الذكاء الاصطناعى للتواصل مع بعضهما البعض ، والعمل معًا لتمرير التفضيلات أو حزم الاحتمالات لصالحها. إذا كنت قلقًا بشأن نهاية العالم لمنظمة العفو الدولية ، فقد يكون ذلك مقلقًا ، ولكن يجب أن تستريح قليلاً مع العلم أنه يبدو أن الآلات على استعداد لتسوية نتائج “جيدة بما يكفي” ، لذلك ربما سنكون قادرين على التفاوض على هدنة إذا لزم الأمر.