دخل الذكاء الاصطناعي إلى السوق بقوة، مما أدى إلى ضجة كبيرة وتبنيه. لكن الوتيرة الآن متعثرة.
لا يزال قادة الأعمال يتحدثون عن تبني الذكاء الاصطناعي، لأنهم يريدون الفوائد – تشير تقديرات ماكينزي إلى أن GenAI يمكن أن توفر للشركات ما يصل إلى 2.6 تريليون دولار عبر مجموعة من العمليات. ومع ذلك، فإنهم لا يسيرون على الأقدام. وفقًا لأحد الاستطلاعات لكبار قادة التحليلات وتكنولوجيا المعلومات، فإن 20% فقط من تطبيقات GenAI قيد الإنتاج حاليًا.
لماذا الفجوة الواسعة بين المصلحة والواقع؟
الجواب متعدد الأوجه. تعتبر المخاوف المتعلقة بالأمن وخصوصية البيانات، ومخاطر الامتثال، وإدارة البيانات عالية المستوى، ولكن هناك أيضًا قلق بشأن افتقار الذكاء الاصطناعي إلى الشفافية ومخاوف بشأن عائد الاستثمار والتكاليف وفجوات المهارات. في هذه المقالة، سنفحص العوائق التي تحول دون اعتماد الذكاء الاصطناعي، ونشارك بعض التدابير التي يمكن لقادة الأعمال اتخاذها للتغلب عليها.
الحصول على التعامل مع البيانات
وقال روب جونسون، نائب الرئيس والرئيس العالمي لهندسة الحلول في شركة SolarWinds: “تعد البيانات عالية الجودة حجر الزاوية في نماذج الذكاء الاصطناعي الدقيقة والموثوقة، والتي بدورها تؤدي إلى اتخاذ قرارات ونتائج أفضل”. وأضاف: “البيانات الجديرة بالثقة تبني الثقة في الذكاء الاصطناعي. بين متخصصي تكنولوجيا المعلومات، مما يؤدي إلى تسريع اعتماد وتكامل تقنيات الذكاء الاصطناعي على نطاق أوسع.
اليوم، يقول 43% فقط من متخصصي تكنولوجيا المعلومات أنهم واثقون من قدرتهم على تلبية متطلبات بيانات الذكاء الاصطناعي. نظرًا لأن البيانات حيوية جدًا لنجاح الذكاء الاصطناعي، فليس من المستغرب أن تكون تحديات البيانات عاملاً يُستشهد به كثيرًا في بطء اعتماد الذكاء الاصطناعي.
أفضل طريقة للتغلب على هذه العقبة هي العودة إلى أساسيات البيانات. تحتاج المؤسسات إلى بناء إستراتيجية قوية لإدارة البيانات من الألف إلى الياء، مع ضوابط صارمة تفرض جودة البيانات وسلامتها.
خذ الأخلاق والحوكمة على محمل الجد
مع تزايد اللوائح التنظيمية، أصبح الامتثال بالفعل بمثابة صداع للعديد من المنظمات. لا يضيف الذكاء الاصطناعي سوى مجالات جديدة من المخاطر، والمزيد من اللوائح التنظيمية، وزيادة قضايا الحوكمة الأخلاقية التي تثير قلق قادة الأعمال، إلى الحد الذي كانت فيه مخاطر الأمان والامتثال هي الاهتمام الأكثر ذكرًا في تقرير Cloudera لحالة المؤسسات للذكاء الاصطناعي وهندسة البيانات الحديثة.
في حين أن الارتفاع في لوائح الذكاء الاصطناعي قد يبدو مثيرا للقلق في البداية، يجب على المديرين التنفيذيين أن يتقبلوا الدعم الذي تقدمه هذه الأطر، لأنها يمكن أن تمنح المؤسسات هيكلا يمكن من خلاله بناء ضوابط المخاطر الخاصة بها وحواجز الحماية الأخلاقية.
إن تطوير سياسات الامتثال، وتعيين فرق لحوكمة الذكاء الاصطناعي، وضمان احتفاظ البشر بالسلطة على القرارات التي تعتمد على الذكاء الاصطناعي، كلها خطوات مهمة في إنشاء نظام شامل لأخلاقيات الذكاء الاصطناعي وإدارته.
تعزيز السيطرة على الأمن والخصوصية
تلوح المخاوف المتعلقة بالأمن وخصوصية البيانات بشكل كبير في كل شركة، وذلك لسبب وجيه. كشفت دراسة قياس خصوصية البيانات لعام 2024 التي أجرتها شركة Cisco أن 48% من الموظفين يعترفون بإدخال معلومات الشركة غير العامة في أدوات GenAI (وقد فعل عدد غير معروف ذلك ولم يعترفوا بذلك)، مما دفع 27% من المؤسسات إلى حظر استخدام مثل هذه الأدوات أدوات.
أفضل طريقة لتقليل المخاطر هي الحد من الوصول إلى البيانات الحساسة. يتضمن ذلك مضاعفة عناصر التحكم في الوصول وزحف الامتيازات، وإبقاء البيانات بعيدًا عن LLMs المستضافة بشكل عام. أوضح آفي بيريز، CTO في Pyramid Analytics، أن البنية التحتية للذكاء الاصطناعي لبرنامج ذكاء الأعمال الخاص به تم تصميمها عمدًا لإبقاء البيانات بعيدًا عن LLM، ومشاركة البيانات التعريفية التي تصف المشكلة فقط والتفاعل مع LLM كأفضل طريقة لتشغيل المحركات المستضافة محليًا. التحليل. “هناك مجموعة كبيرة من القضايا هناك. لا يتعلق الأمر بالخصوصية فحسب، بل يتعلق أيضًا بالنتائج المضللة. لذا، في هذا الإطار، تعد خصوصية البيانات والقضايا المرتبطة بها هائلة، في رأيي. قال بيريز: “إنهم رائعون”. ومع ذلك، من خلال إعداد Pyramid، “يقوم برنامج LLM بإنشاء الوصفة، ولكنه يفعل ذلك دون أن يحصل على البيانات، ودون القيام بعمليات رياضية. (…) وهذا يزيل ما يقرب من 95% من المشكلة، فيما يتعلق بمخاطر خصوصية البيانات.
تعزيز الشفافية وقابلية الشرح
هناك عقبة خطيرة أخرى أمام تبني الذكاء الاصطناعي وهي انعدام الثقة في نتائجه. أصبحت القصة سيئة السمعة لأداة التوظيف المدعومة بالذكاء الاصطناعي من أمازون والتي تميز ضد المرأة حكاية تحذيرية تخيف الكثير من الناس بعيدًا عن الذكاء الاصطناعي. وأفضل طريقة لمكافحة هذا الخوف هي زيادة قابلية التفسير والشفافية.
قال عدنان مسعود، كبير مهندسي الذكاء الاصطناعي في جامعة UST والمدير الإقليمي لشركة Microsoft: “إن شفافية الذكاء الاصطناعي تدور حول شرح الأسباب الكامنة وراء المخرجات بوضوح، مما يجعل عملية صنع القرار سهلة الوصول ومفهومة”. “في نهاية المطاف، يتعلق الأمر بالقضاء على لغز الصندوق الأسود للذكاء الاصطناعي وتقديم نظرة ثاقبة حول كيفية وسبب اتخاذ القرار في مجال الذكاء الاصطناعي”. لسوء الحظ، يتجاهل العديد من المديرين التنفيذيين أهمية الشفافية. أفادت دراسة حديثة أجرتها شركة IBM أن 45% فقط من الرؤساء التنفيذيين يقولون إنهم يقدمون قدرات من أجل الانفتاح. يحتاج أبطال الذكاء الاصطناعي إلى إعطاء الأولوية لتطوير سياسات حوكمة الذكاء الاصطناعي الصارمة التي تمنع ظهور الصناديق السوداء، والاستثمار في أدوات التوضيح مثل شرح SHapley Additive (SHAPs)، ومجموعات أدوات العدالة مثل مؤشرات العدالة من Google، وعمليات التحقق من الامتثال الآلي مثل الذكاء الاصطناعي التابع لمعهد المدققين الداخليين. إطار التدقيق.
تحديد قيمة تجارية واضحة
التكلفة مدرجة في قائمة عوائق الذكاء الاصطناعي، كما هو الحال دائمًا. وجد استطلاع Cloudera أن 26% من المشاركين قالوا إن أدوات الذكاء الاصطناعي باهظة الثمن، وأدرجت مؤسسة Gartner “قيمة الأعمال غير الواضحة” كعامل في فشل مشاريع الذكاء الاصطناعي. ومع ذلك، أشار تقرير Gartner نفسه إلى أن GenAI حققت متوسط زيادة في الإيرادات ووفرة في التكاليف تزيد عن 15% بين مستخدميها، وهو دليل على أن الذكاء الاصطناعي يمكنه تعزيز الرفع المالي إذا تم تنفيذه بشكل صحيح.
ولهذا السبب من المهم التعامل مع الذكاء الاصطناعي مثل أي مشروع تجاري آخر – حدد المجالات التي ستوفر عائدًا سريعًا على الاستثمار، وحدد الفوائد التي تتوقع رؤيتها، وقم بتعيين مؤشرات أداء رئيسية محددة حتى تتمكن من إثبات القيمة. “على الرغم من أن البناء يتطلب الكثير وقال مايكل روبنسون، مدير تسويق المنتجات في UiPath: “من خلال استراتيجية وخريطة طريق للذكاء الاصطناعي، فإن الخطوة الأولى الحاسمة هي تحديد حالات استخدام الذكاء الاصطناعي الأكثر قيمة وتحويلًا والتي يجب التركيز عليها”.
إعداد برامج تدريبية فعالة
تظل فجوة المهارات عائقًا كبيرًا أمام تبني الذكاء الاصطناعي، ولكن يبدو أنه لم يتم بذل سوى القليل من الجهد لمعالجة هذه المشكلة. يشير تقرير من Worklife إلى أن الطفرة الأولية في اعتماد الذكاء الاصطناعي جاءت من المتبنين الأوائل. الآن، يعود الأمر إلى المتقاعسين، الذين هم متشككون بطبيعتهم وأقل ثقة بشكل عام بشأن الذكاء الاصطناعي – وأي تقنية جديدة.
وهذا يجعل التدريب أمرا بالغ الأهمية. ومع ذلك، وفقًا لدراسة حالة الذكاء الاصطناعي في العمل التي أجرتها شركة Asana، قال 82% من المشاركين إن مؤسساتهم لم تقدم تدريبًا على استخدام الذكاء الاصطناعي التوليدي. ليس هناك ما يشير إلى أن التدريب لا يعمل؛ بل أن الأمر لا يحدث كما ينبغي.
والهدف الواضح هو تقديم تدريب شامل في مجال المطالبة بالجودة والمهارات الأخرى ذات الصلة. ومن المشجع أن نفس البحث يظهر أنه حتى استخدام الذكاء الاصطناعي دون تدريب يزيد من مهارات الناس وثقتهم. لذا، من الجيد البدء باستخدام أدوات منخفضة أو بدون تعليمات برمجية تسمح للموظفين غير المهرة في الذكاء الاصطناعي بالتعلم أثناء العمل.
إن العوائق التي تحول دون اعتماد الذكاء الاصطناعي ليست مستحيلة التغلب عليها
على الرغم من تباطؤ اعتماد الذكاء الاصطناعي، إلا أنه لا يوجد ما يشير إلى أنه في خطر على المدى الطويل. يمكن التغلب على العقبات العديدة التي تمنع الشركات من طرح أدوات الذكاء الاصطناعي دون الكثير من المتاعب. وينبغي اتخاذ العديد من الخطوات، مثل تعزيز جودة البيانات والحوكمة الأخلاقية، بغض النظر عما إذا كان الذكاء الاصطناعي قيد النظر أم لا، في حين أن الخطوات الأخرى المتخذة ستدفع تكاليفها في شكل زيادة الإيرادات ومكاسب الإنتاجية التي يمكن أن يحققها الذكاء الاصطناعي.