على الرغم من أن الناس يستخدمون الذكاء الاصطناعي على نطاق واسع لأغراض شخصية وتجارية، إلا أنهم لا يثقون به بشكل كامل بالضرورة.
بالنسبة لقادة الأعمال، لم يعد استخدام الذكاء الاصطناعي مجرد خيار، بل هو شيء يجب عليهم القيام به للحفاظ على قدرتهم التنافسية. إن إدخال الذكاء الاصطناعي في كل شيء، بدءًا من المساعدين المفيدين إلى العمليات التلقائية، يمكن أن يعزز الإنتاجية ويفتح طرقًا جديدة لكسب المال.
يواجه مدراء تكنولوجيا المعلومات وكبار مسؤولي البيانات مهمة صعبة تتمثل في توجيه شركاتهم خلال التغييرات الرقمية. على الرغم من أن العمال والعملاء يستخدمون أدوات الذكاء الاصطناعي، إلا أنهم لا يثقون بها حقًا، مما يثير مخاوف جديدة حول كيفية التحكم في الأمور ويمكن أن يضر بسمعة الشركة.
الكثير من الاستخدام، ولكن ليس الثقة الكافية
وفي دولة الإمارات العربية المتحدة – المعروفة بتبنيها السريع للتكنولوجيا الجديدة – يستخدم 97% من الأشخاص الذكاء الاصطناعي في وظائفهم أو دراساتهم أو أغراضهم الشخصية، وفقًا لتقرير صادر عن شركة KPMG.
وهذا واحد من أعلى المعدلات في العالم، ولكن هذا الاستخدام الواسع النطاق يخفي بعض المخاوف العميقة. وقال التقرير نفسه إن 84% من الأشخاص لن يثقوا بأنظمة الذكاء الاصطناعي إلا إذا كانوا متأكدين من أنها تُستخدم بطريقة جديرة بالثقة، ويعتقد 57% منهم أنه يجب أن تكون هناك قواعد أقوى لجعل الذكاء الاصطناعي يشعر بالأمان.
ومن الواضح أنه على الرغم من أن الناس يستخدمون الذكاء الاصطناعي كثيرًا، إلا أن الثقة لم ترتفع. وهذا لا يحدث فقط في دولة الإمارات العربية المتحدة.
وتظهر المعلومات الواردة من المملكة المتحدة فجوة ثقة مماثلة، وربما أكثر تطوراً. وجدت شركة KPMG أن 42% فقط من الأشخاص في المملكة المتحدة على استعداد للثقة في الذكاء الاصطناعي. وفي حين أن 57% يقبلون أو يوافقون على استخدامه، يعتقد 80% أن هناك حاجة إلى قواعد أقوى للتأكد من استخدامه بشكل مسؤول.
يجب أن تثير أرقام الثقة في الذكاء الاصطناعي قلق قادة الأعمال. يشعر 78% من الأشخاص في المملكة المتحدة بالقلق إزاء الأشياء السيئة التي يمكن أن تحدث بسبب الذكاء الاصطناعي، ويقول 10% فقط إنهم يعرفون قواعد الذكاء الاصطناعي الموجودة بالفعل في البلاد. تشير المعلومات إلى أنه حتى في الأماكن التي تكون فيها التكنولوجيا شائعة، لا تزال الثقة والتفاهم متأخرة كثيرًا عن مدى استخدام الذكاء الاصطناعي.
عندما يريد 80% من السوق المهمة قواعد أقوى، فهذه إشارة إلى الأشخاص المسؤولين على أنهم لا يقومون بعمل جيد بما فيه الكفاية لمراقبة الأمور. إن وضع أداة جديدة لخدمة العملاء تعمل بالذكاء الاصطناعي في سوق لا تثق بالفعل بشكل كامل في الذكاء الاصطناعي يمثل خطرًا كبيرًا على صورة الشركة.
سيكون الفرق بين استخدام الذكاء الاصطناعي والثقة فيه نقطة أساسية في المرحلة التالية من التغيير الرقمي، وفقًا لما قاله Lei Gao، CTO في SleekFlow. يقول لي إن استخدام الذكاء الاصطناعي لم يعد هو المشكلة بعد الآن، ولكن كونك مسؤولاً هو المشكلة. لا يمانع الناس في استخدام الذكاء الاصطناعي طالما أنهم يعتقدون أنه يتم استخدامه بطريقة مسؤولة.
يوضح لي: “لم يعد التبني هو المشكلة، بل المساءلة. يشعر الناس بالارتياح عند استخدام الذكاء الاصطناعي طالما أنهم يعتقدون أنه يتم استخدامه بطريقة مسؤولة”. “في التواصل مع العملاء، على سبيل المثال، يثق المستخدمون في الذكاء الاصطناعي عندما يتصرف بشكل يمكن التنبؤ به وبشفافية. وإذا لم يتمكنوا من معرفة متى تتخذ الأتمتة قرارًا، أو إذا شعرت بعدم الاتساق، فإن هذه الثقة تبدأ في التآكل. “
بالنسبة للشركات التي تعمل في الأسواق التي يتم فيها استخدام الذكاء الاصطناعي كثيرًا ولكن لا يمكن الاعتماد عليه، فإن الشيء الأكثر أهمية هو خلق الثقة. ويعتقد لي أن القادة بحاجة إلى تضمين الانفتاح والاتساق والتحكم البشري في كل تفاعل مع الذكاء الاصطناعي. وهذا يعني وجود قواعد واضحة، سواء كانت الشركة تستخدم نماذج الذكاء الاصطناعي الأساسية من AWS Bedrock، أو تدير المعلومات في Dell AI Factory، أو تستخدم مساعدي الذكاء الاصطناعي مثل SAP Joule.
خطة لبناء ثقة الذكاء الاصطناعي في عملك
ولحل هذه المشكلة، يقترح لي ثلاث أفكار رئيسية تحول استراتيجية الذكاء الاصطناعي من مسألة تقنية إلى مسألة سيطرة:
- تحتاج الشركات إلى كن منفتحًا بشأن وقت استخدام الذكاء الاصطناعي. العملاء والعمال يقدرون الصدق. يقترح لي توضيح متى يتحدث الأشخاص إلى الذكاء الاصطناعي ومتى يتولى الإنسان المسؤولية. يعد هذا الإجراء البسيط ضروريًا لأن الوضوح يبني الثقة.
- يحتاج قادة التكنولوجيا إلى ذلك استخدام الذكاء الاصطناعي لمساعدة الناس، لا تتركهم. يعد هذا أمرًا مهمًا لجعل الأشخاص يستخدمون الذكاء الاصطناعي داخل الشركة وتقليل المقاومة. ويقول لي إن الذكاء الاصطناعي يجب أن يجعل الناس أفضل، وليس أن يحل محلهم.
- يحتاج قادة الأعمال إلى ذلك تحقق من الذكاء الاصطناعي لمعرفة لهجته وعدالته. هذا هو المكان الذي تصبح فيه السيطرة عملية مستمرة. ويشير لي إلى أن استخدام الذكاء الاصطناعي بشكل مسؤول هو أمر يجب القيام به طوال الوقت؛ لا يكفي إطلاقه ونسيانه. إن الحفاظ على الثقة واتباع القواعد يعني التحقق بانتظام من اللهجة والتحيز ومدى جودة معالجة الذكاء الاصطناعي للمشكلات.
لقد أثبتت دولة الإمارات العربية المتحدة أنه يمكن اعتماد الذكاء الاصطناعي بشكل أسرع من أي مكان آخر تقريبًا، ولكن مدى سرعة تطبيقه لم يعد أفضل مقياس للنجاح بعد الآن. التحدي الذي يواجه قادة الأعمال هو إظهار أن أنظمة الذكاء الاصطناعي الخاصة بهم ليست قوية فحسب، ولكنها أيضًا موثوقة وعادلة ومنفتحة ويمكنها كسب الثقة.
ويخلص لي إلى القول: “إن الإنجاز التالي هو الثقة وإظهار أن الأتمتة يمكن أن تعمل في خدمة الأشخاص، وليس فقط مقاييس الأداء”.
أنظر أيضا: يقوم OpenAI بربط ChatGPT ببيانات المؤسسة لعرض المعرفة
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. يعد هذا الحدث الشامل جزءًا من TechEx ويقام في مكان مشترك مع أحداث تكنولوجية رائدة أخرى بما في ذلك معرض الأمن السيبراني، انقر هنا لمزيد من المعلومات.
يتم تشغيل AI News بواسطة TechForge Media. استكشف الأحداث والندوات عبر الإنترنت القادمة الأخرى المتعلقة بتكنولوجيا المؤسسات هنا.
