يعتقد 76% من المستهلكين في أوروبا والشرق الأوسط وأفريقيا أن الذكاء الاصطناعي سيؤثر بشكل كبير على السنوات الخمس المقبلة، لكن 47% يشككون في القيمة التي سيجلبها الذكاء الاصطناعي و41% يشعرون بالقلق بشأن تطبيقاته.
هذا وفقًا لبحث أجرته شركة Alteryx لتحليلات المؤسسات والذكاء الاصطناعي.
منذ إصدار ChatGPT بواسطة OpenAI في نوفمبر 2022، كان هناك ضجة كبيرة حول الإمكانات التحويلية للذكاء الاصطناعي التوليدي، حيث اعتبرها الكثيرون واحدة من أكثر التقنيات ثورية في عصرنا.
مع وجود نسبة كبيرة تبلغ 79% من المؤسسات تفيد بأن الذكاء الاصطناعي الإنتاجي يساهم بشكل إيجابي في الأعمال التجارية، فمن الواضح أن هناك حاجة إلى معالجة الفجوة لإثبات قيمة الذكاء الاصطناعي للمستهلكين في حياتهم الشخصية والمهنية. وفقًا لتقرير “أبحاث السوق: المواقف واعتماد الذكاء الاصطناعي التوليدي”، الذي شمل 690 من قادة أعمال تكنولوجيا المعلومات و1100 فرد من عامة الناس في أوروبا والشرق الأوسط وأفريقيا، فإن القضايا الرئيسية المتعلقة بالثقة والأخلاقيات والمهارات سائدة، مما قد يعيق النشر الناجح والتوسع على نطاق أوسع. قبول الذكاء الاصطناعي التوليدي.
تأثير المعلومات الخاطئة وعدم الدقة وهلوسة الذكاء الاصطناعي
وتشكل هذه الهلوسة – حيث يولد الذكاء الاصطناعي مخرجات غير صحيحة أو غير منطقية – مصدر قلق كبير. تعد الثقة بما ينتجه الذكاء الاصطناعي التوليدي مشكلة كبيرة لكل من قادة الأعمال والمستهلكين. يشعر أكثر من ثلث الجمهور بالقلق بشأن قدرة الذكاء الاصطناعي على توليد أخبار مزيفة (36%) وإساءة استخدامه من قبل المتسللين (42%)، في حين أفاد نصف قادة الأعمال أنهم يواجهون معلومات مضللة ينتجها الذكاء الاصطناعي التوليدي. في الوقت نفسه، لاحظ نصف قادة الأعمال أن مؤسساتهم تتصارع مع المعلومات الخاطئة التي ينتجها الذكاء الاصطناعي.
علاوة على ذلك، فقد تم التشكيك في موثوقية المعلومات التي يقدمها الذكاء الاصطناعي التوليدي. تشير ردود الفعل من عامة الناس إلى أن نصف البيانات الواردة من الذكاء الاصطناعي كانت غير دقيقة، واعتبرها 38% قديمة. على صعيد الأعمال، تشمل المخاوف انتهاك الذكاء الاصطناعي التوليدي لحقوق الطبع والنشر أو حقوق الملكية الفكرية (40%)، وإنتاج مخرجات غير متوقعة أو غير مقصودة (36%).
تدور إحدى قضايا الثقة الحاسمة بالنسبة للشركات (62%) والجمهور (74%) حول هلوسة الذكاء الاصطناعي. بالنسبة للشركات، يتضمن التحدي تطبيق الذكاء الاصطناعي التوليدي على حالات الاستخدام المناسبة، مدعومًا بالتكنولوجيا المناسبة وتدابير السلامة، للتخفيف من هذه المخاوف. يؤيد ما يقرب من نصف المستهلكين (45%) اتخاذ تدابير تنظيمية بشأن استخدام الذكاء الاصطناعي.
لا تزال المخاوف والمخاطر الأخلاقية قائمة في استخدام الذكاء الاصطناعي التوليدي
بالإضافة إلى هذه التحديات، هناك مشاعر قوية ومتشابهة بشأن المخاوف الأخلاقية والمخاطر المرتبطة بالذكاء الاصطناعي التوليدي بين قادة الأعمال والمستهلكين. يعارض أكثر من نصف عامة الناس (53%) استخدام الذكاء الاصطناعي التوليدي في اتخاذ القرارات الأخلاقية. وفي الوقت نفسه، أعرب 41% من المشاركين في قطاع الأعمال عن قلقهم بشأن تطبيقه في مجالات صنع القرار الحاسمة. هناك اختلافات في المجالات المحددة حيث لا يتم تشجيع استخدامه؛ ويعارض المستهلكون بشكل خاص استخدامه في السياسة (46%)، وتتوخى الشركات الحذر بشأن استخدامه في مجال الرعاية الصحية (40%).
تجد هذه المخاوف بعض التحقق من صحتها في نتائج الأبحاث، والتي تسلط الضوء على الفجوات المثيرة للقلق في الممارسات التنظيمية. وأكد ثلث القادة فقط أن شركاتهم تضمن أن تكون البيانات المستخدمة لتدريب الذكاء الاصطناعي التوليدي متنوعة وغير متحيزة. علاوة على ذلك، وضع 36% فقط مبادئ توجيهية أخلاقية، و52% وضعوا سياسات خصوصية وأمان البيانات لتطبيقات الذكاء الاصطناعي التوليدية.
وهذا النقص في التركيز على سلامة البيانات والاعتبارات الأخلاقية يعرض الشركات للخطر. يشير 63% من قادة الأعمال إلى أن الأخلاق هي مصدر قلقهم الرئيسي فيما يتعلق بالذكاء الاصطناعي التوليدي، تليها مباشرة القضايا المتعلقة بالبيانات (62%). يؤكد هذا السيناريو على أهمية الحوكمة الأفضل لخلق الثقة وتخفيف المخاطر المتعلقة بكيفية استخدام الموظفين للذكاء الاصطناعي التوليدي في مكان العمل.
ظهور مهارات الذكاء الاصطناعي التوليدية والحاجة إلى تعزيز المعرفة بالبيانات
مع تطور الذكاء الاصطناعي التوليدي، سيكون إنشاء مجموعات المهارات ذات الصلة وتعزيز المعرفة بالبيانات أمرًا أساسيًا لتحقيق إمكاناته الكاملة. يستخدم المستهلكون بشكل متزايد تقنيات الذكاء الاصطناعي التوليدية في سيناريوهات مختلفة، بما في ذلك استرجاع المعلومات، والتواصل عبر البريد الإلكتروني، واكتساب المهارات. يزعم قادة الأعمال أنهم يستخدمون الذكاء الاصطناعي التوليدي لتحليل البيانات، والأمن السيبراني، ودعم العملاء، وعلى الرغم من نجاح المشاريع التجريبية، لا تزال هناك تحديات. على الرغم من النجاح المعلن للمشاريع التجريبية، لا تزال هناك العديد من التحديات، بما في ذلك المشكلات الأمنية، وقضايا خصوصية البيانات، وجودة المخرجات وموثوقيتها.
أكد تريفور شولتز، مدير تكنولوجيا المعلومات في Alteryx، على ضرورة فهم كل من المؤسسات وعامة الناس بشكل كامل لقيمة الذكاء الاصطناعي ومعالجة الاهتمامات المشتركة أثناء تنقلهم في المراحل الأولى من اعتماد الذكاء الاصطناعي التوليدي.
وأشار إلى أن معالجة قضايا الثقة، والمخاوف الأخلاقية، ونقص المهارات، والمخاوف من غزو الخصوصية، والتحيز الخوارزمي هي مهام حاسمة. وشدد شولز على ضرورة قيام المؤسسات بتسريع رحلة البيانات الخاصة بها، واعتماد حوكمة قوية، والسماح للأفراد غير التقنيين بالوصول إلى البيانات وتحليلها بأمان وموثوقية، ومعالجة المخاوف المتعلقة بالخصوصية والتحيز من أجل تحقيق ربح حقيقي من هذه التكنولوجيا التي “تغير قواعد اللعبة”.
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. ويقام هذا الحدث الشامل في موقع مشترك مع أحداث رائدة أخرى بما في ذلك مؤتمر الأتمتة الذكية، وBlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابي.