حلت ميتا فريقها للذكاء الاصطناعي المسؤول، وهو الفريق المسؤول عن فهم الأضرار المرتبطة بتكنولوجيا الذكاء الاصطناعي التي تطورها ومنعها، وذلك في ظل تحويل الشركة للمزيد من الموارد نحو عملها في مجال الذكاء الاصطناعي التوليدي.
وتعد التغييرات جزءًا من تعديل واسع لفرق الذكاء الاصطناعي التي أعلنتها الشركة هذا الأسبوع داخليًا، وذلك وفقًا لتقرير نشره موقع The Information نقلًا عن منشور داخلي شاهده.
وينتقل معظم الموظفين في فريق الذكاء الاصطناعي المسؤول إلى فريق الذكاء الاصطناعي التوليدي في ميتا، الذي شكلته الشركة في شهر فبراير من أجل تصنيع منتجات الذكاء الاصطناعي التوليدي.
وأشار متحدث باسم ميتا إلى أن الأعضاء الآخرين ينتقلون إلى وحدة البنية التحتية للذكاء الاصطناعي في الشركة، التي تطور الأنظمة والأدوات اللازمة لبناء منتجات الذكاء الاصطناعي وتشغيلها.
وتشير الشركة بانتظام إلى أنها ترغب في تطوير الذكاء الاصطناعي بشكل مسؤول، ولديها صفحة خاصة لهذا الوعد، إذ تسرد الشركة ركائز الذكاء الاصطناعي المسؤول، ومنها المساءلة والشفافية والسلامة والخصوصية والمزيد.
وينقل التقرير عن جون كارفيل، الذي يمثل شركة ميتا، قوله: “تواصل الشركة تحديد الأولويات والاستثمار في تطوير الذكاء الاصطناعي الآمن والمسؤول”، مضيفًا أن أعضاء الفريق يستمرون في دعم الجهود ذات الصلة عبر ميتا بخوص تطوير الذكاء الاصطناعي المسؤول واستخدامه.
وشهد الفريق في وقت سابق من هذا العام عملية إعادة هيكلة، التي تضمنت عمليات تسريح للموظفين، مما جعل فريق الذكاء الاصطناعي المسؤول مجرد هيكل لفريق.
وكان فريق الذكاء الاصطناعي المسؤول الموجود منذ عام 2019 يتمتع بقدر قليل من الاستقلالية ويجب أن تمر مبادراته بمفاوضات مطولة مع أصحاب المصلحة قبل تنفيذها.
وأنشأت ميتا فريق الذكاء الاصطناعي المسؤول من أجل تحديد المشكلات المتعلقة بأساليب تدريب الذكاء الاصطناعي، مثل إذا كانت نماذج الشركة قد دربت بمعلومات متنوعة بشكل مناسب، مع التركيز على منع أشياء، مثل مشكلات الإشراف عبر منصاتها.
وأدت الأنظمة الآلية عبر منصات ميتا الاجتماعية إلى مشاكل، مثل مشكلة ترجمة فيسبوك التي تسببت في اعتقال كاذب، وإنشاء ملصقات واتساب بالذكاء الاصطناعي التي تؤدي إلى صور متحيزة عند تقديم مطالبات معينة، وخوارزميات إنستاجرام التي تساعد الأشخاص في العثور على مواد الاعتداء الجنسي على الأطفال.
ويأتي تحرك ميتا في الوقت الذي تتسابق فيه حكومات العالم لإنشاء حواجز تنظيمية من أجل تطوير الذكاء الاصطناعي. وأبرمت الحكومة الأمريكية اتفاقيات مع شركات الذكاء الاصطناعي، ووجه الرئيس بايدن لاحقًا الوكالات الحكومية للتوصل إلى قواعد سلامة الذكاء الاصطناعي.
ونشر الاتحاد الأوروبي في الوقت نفسه مبادئه للذكاء الاصطناعي، ولا يزال يناضل من أجل إقرار قانونه للذكاء الاصطناعي.