أكثر من نصفنا الآن يستخدم الذكاء الاصطناعي للبحث في الويب، إلا أن دقة البيانات المنخفضة للغاية للأدوات الشائعة تخلق مخاطر تجارية جديدة. ففي حين أن الذكاء الاصطناعي التوليدي (GenAI) يقدم مكاسب واضحة في الكفاءة، إلا أن تحقيقًا حديثًا كشف عن فجوة مقلقة بين ثقة المستخدمين في هذه التقنيات والدقة الفعلية للمعلومات التي تقدمها. هذه الفجوة تحمل في طياتها تحديات كبيرة للشركات من حيث الالتزام القانوني، والوضع المالي، وحتى التخطيط الاستراتيجي.
تزايد الاعتماد على الذكاء الاصطناعي في الأبحاث التجارية
هناك تحول ملحوظ في طريقة حصول الناس على المعلومات. فوفقًا لاستطلاع أجرى في سبتمبر 2023 شمل 4189 شخصًا بالغًا في المملكة المتحدة، رأى حوالي ثلث المستجيبين أن الذكاء الاصطناعي للبحث أكثر أهمية من محركات البحث التقليدية. هذا الاعتماد المتزايد ليس مقتصرًا على الاستخدام الشخصي فحسب؛ فالموظفون الذين يثقون بالذكاء الاصطناعي في حياتهم اليومية من المرجح أن يعتمدوا عليه في أبحاثهم المتعلقة بالعمل. هذا يمثل تحديًا كلاسيكيًا للإدارة العليا يتمثل في “تكنولوجيا المعلومات الظل” (Shadow IT)، حيث يتم استخدام أدوات غير معتمدة من قبل الأقسام المختلفة دون إشراف IT مركزي.
فجوة الدقة: نتائج التحقيق في أداء أدوات الذكاء الاصطناعي
أظهر تحقيق أجرته منظمة “ويتش؟” (Which?) أن هذا الاعتماد قد يكون مكلفًا للغاية. فقد أفاد حوالي نصف مستخدمي الذكاء الاصطناعي بثقتهم في المعلومات التي يتلقونها بدرجة “معقولة” أو “كبيرة”، وهو أمر قد يكون مضللًا بشكل خطير.
تم اختبار ستة أدوات رئيسية للذكاء الاصطناعي – ChatGPT، وGoogle Gemini (بما في ذلك نظرة عامة الذكاء الاصطناعي)، وMicrosoft Copilot، وMeta AI، وPerplexity – من خلال 40 سؤالاً شائعًا تغطي مجالات حساسة مثل التمويل والقانون وحقوق المستهلك.
- Perplexity تصدرت القائمة بنسبة دقة 71%، تليها Google Gemini AI Overviews بنسبة 70%.
- بالمقابل، حلت Meta AI في ذيل القائمة بنسبة 55%.
- ChatGPT، على الرغم من شعبيته الواسعة، حصل على 64% فقط، مما جعله ثاني أقل أداء.
هذا التناقض بين الهيمنة السوقية والأداء الفعلي يؤكد على مخاطر افتراض أن الشعبية تعني الموثوقية في عالم الذكاء الاصطناعي التوليدي.
المخاطر التجارية المحددة: التمويل والقانون
حتى مع الأداء الأفضل لأدوات البحث بالذكاء الاصطناعي، كشف التحقيق عن أخطاء متكررة في المعلومات أو تقديم نصائح غير كاملة، مما يخلق مخاطر تجارية كبيرة. بالنسبة للمسؤولين الماليين والإدارات القانونية، تثير هذه الأخطاء قلقًا خاصًا.
على سبيل المثال، عندما سئل عن أفضل طريقة لاستثمار بدل ISA السنوي (وهو حساب توفير في المملكة المتحدة)، قدم كل من ChatGPT وCopilot نصيحة خاطئة بشأن الحد القانوني للاستثمار، مما قد يعرض المستخدمين لانتهاك قواعد الإيرادات والمصارف. في حين تمكنت أدوات Gemini وMeta وPerplexity من التعرف على الخطأ، إلا أن هذا التفاوت في الدقة يسلط الضوء على ضرورة وجود بروتوكول صارم “للإنسان في الحلقة” لضمان الدقة في أي عملية تجارية تعتمد على الذكاء الاصطناعي.
بالنسبة للفرق القانونية، يمثل ميل الذكاء الاصطناعي إلى تعميم اللوائح الإقليمية عند إجراء أبحاث قانونية خطرًا واضحًا. فالعديد من القوانين واللوائح تختلف بشكل كبير بين مناطق مختلفة داخل المملكة المتحدة (مثل إنجلترا وويلز مقابل اسكتلندا)، وقد يؤدي الذكاء الاصطناعي إلى تقديم معلومات غير صحيحة أو مضللة.
تعميمات أخلاقية وغياب الإحالة إلى الخبراء
بالإضافة إلى الدقة التقنية، كشف التحقيق عن فجوة أخلاقية في كيفية تعامل نماذج الذكاء الاصطناعي مع الاستفسارات عالية المخاطر. ففي القضايا القانونية والمالية، نادرًا ما نصحت الأدوات المستخدمين باستشارة متخصص مسجل. على سبيل المثال، عند الاستفسار عن نزاع مع عامل بناء، نصح نموذج Gemini المستخدم بحجب الدفع، وهو تكتيك قد يؤدي إلى انتهاك العقد وتعريض المستخدم لخسائر قانونية.
هذه “النصيحة المفرطة في الثقة” تخلق مخاطر تشغيلية كبيرة. إذا اعتمد الموظفون على الذكاء الاصطناعي لإجراء فحوصات أولية للامتثال أو مراجعة العقود دون التحقق من الاختصاص القضائي أو الفوارق القانونية الدقيقة، فقد تتعرض المؤسسة لمخاطر تنظيمية وقانونية.
شفافية المصدر والتحيز الخوارزمي
أحد التحديات الرئيسية التي تواجهها إدارة بيانات المؤسسات هو مصداقية المصادر. غالبًا ما تفتقر أدوات الذكاء الاصطناعي للبحث إلى الشفافية فيما يتعلق بالمصادر التي تستند إليها، وغالبًا ما تذكر مصادر غامضة أو غير موجودة أو ذات دقة مشكوك فيها، مثل المنتديات القديمة على الإنترنت.
وقد أظهرت الاختبارات أن بعض الأدوات تميل إلى الترويج لخدمات معينة، مثل خدمات استرداد الضرائب المدفوعة، بدلاً من توجيه المستخدمين إلى الموارد الرسمية والمجانية. هذا التحيز الخوارزمي يمكن أن يؤدي إلى إنفاق غير ضروري للشركات أو التعامل مع مقدمي خدمات لا يستوفون معايير العناية الواجبة.
التخفيف من المخاطر: السياسات وسير العمل
الخلاصة ليست في حظر أدوات الذكاء الاصطناعي، بل في تنفيذ أطر حوكمة قوية لضمان دقة مخرجاتها.
- الدقة في المطالبات: يجب تدريب الموظفين على صياغة استعلامات واضحة ومحددة، مع تحديد الاختصاص القضائي ذي الصلة عند الحاجة.
- التحقق من المصادر: يجب على الموظفين دائمًا مطالَبة رؤية المصادر والتحقق منها يدويًا.
- تفعيل “الرأي الثاني”: يجب اعتبار مخرجات الذكاء الاصطناعي التوليدي مجرد رأي واحد من بين آراء كثيرة، ولا ينبغي الاعتماد عليها كحقيقة مطلقة.
- الاستشارة المهنية: بالنسبة للقضايا المعقدة التي تنطوي على التمويل أو القانون أو البيانات الطبية، يجب أن تظل المشورة البشرية المهنية هي الحكم النهائي.
على الرغم من التطورات المستمرة في مجال الذكاء الاصطناعي وتحسين دقة أدوات البحث عبر الإنترنت، فإن الاعتماد المفرط عليها في الوقت الحالي قد يكون مكلفًا. يكمن الفرق بين تحقيق مكاسب الكفاءة من الذكاء الاصطناعي وتجنب مخاطر عدم الامتثال في عملية التحقق الدقيقة والمستمرة.
