كشف بحث جديد أجراه باحثون من Google DeepMind وكلية لندن الجامعية (University College London) عن أن النماذج اللغوية الكبيرة (LLMs) تعاني أحيانًا فقدان الثقة في إجاباتها، وقد تتخلى عن الإجابات الصحيحة في بعض الحالات. تُعد النماذج اللغوية الكبيرة أنظمة ذكاء اصطناعي قوية قادرة على فهم اللغة البشرية وتوليدها، وتُستخدم في مجموعة واسعة من الصناعات، مثل: …
خدمة الإشعارات البريدية
اشترك في خدمة الإشعارات البريدية ليصلك كل جديد الى بريدك الإلكتروني مباشرة.
بحث جديد يكشف مشكلة في الثقة لدى أنظمة الذكاء الاصطناعي
المقالات ذات الصلة
اترك تعليقاً