Close Menu
تقنية نيوزتقنية نيوز
    مقالات قد تهمك

    سياسة رقاقة ترامب منظمة العفو الدولية لإلغاء ضوابط تصدير بايدن

    9 مايو, 2025

    بالملل من التلفزيون؟ حاول تغذية عقلك مع إمدادات مدى الحياة من الأفلام الوثائقية

    9 مايو, 2025

    مفاجأة غير سارة لمنتظري لعبة DOOM: The Dark Ages على PS5

    9 مايو, 2025
    فيسبوك X (Twitter) الانستغرام
    • من نحن
    • سياسة الخصوصية
    • اتصل بنا
    فيسبوك X (Twitter) الانستغرام يوتيوب
    تقنية نيوزتقنية نيوز
    • الرئيسية
    • اخر الاخبار
    • هواتف ذكية
    • كمبيوتر
    • برامج وتطبيقات
    • شركات
      • ابل
      • سامسونج
      • جوجل
      • مايكروسوفت
      • أمازون
    • المزيد
      • الذكاء الإصطناعي
      • الأمن الإلكتروني
      • ألعاب
      • منوعات تقنية
    اشترك معنا
    تقنية نيوزتقنية نيوز
    الرئيسية » ما مخاطر الذكاء الاصطناعي التوليدي وكيف يمكن الحد منها؟
    منوعات تقنية

    ما مخاطر الذكاء الاصطناعي التوليدي وكيف يمكن الحد منها؟

    فريق التحريربواسطة فريق التحرير21 يونيو, 20241 زيارةلا توجد تعليقات
    شاركها فيسبوك تويتر بينتيريست لينكدإن Tumblr رديت تيلقرام البريد الإلكتروني
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    وفقًا لاستطلاع أجرته شركة Gartner على 2500 مدير تنفيذي في الربيع الماضي، أفاد ما تقرب نسبته من 70% من المستجيبين بأن منظماتهم تستكشف كيفية إدماج الذكاء الاصطناعي التوليدي في مؤسساتهم، وأشار تقرير مؤشر الذكاء الاصطناعي الذي نشرته جامعة ستانفورد آخرًا إلى أن معدلات اعتماد الذكاء الاصطناعي العالمية ازدادت في كل المجالات التي شملها التقرير. 

    عمالقة التكنولوجيا، مثل: مايكروسوفت و Salesforce، أدمجوا الذكاء الاصطناعي التوليدي في العديد من منتجاتهم وقدموا خيارًا للمؤسسات لإنشاء إصدارات خاصة من نماذج اللغات الكبيرة (LLMs). والكثير من الشركات العالمية تفكر في كيفية استخدام الذكاء الاصطناعي التوليدي في الإنتاج والتسويق وغير ذلك.

    ومع ذلك، ما تزال العديد من الشركات مترددة في تبني تطبيقات الذكاء الاصطناعي التوليدي بسبب المخاوف المرتبطة بالخصوصية والتهديدات الأمنية، وانتهاك حقوق النشر، وإمكانية التحيز والتمييز في المخرجات، ومخاطر أخرى. وقد منعت بعض الشركات موظفيها من استخدام هذه التقنية.

    إذن، ما المخاطر المرتبطة باستخدام هذه التقنية، وما التحديات المحتملة لاستخدامها وكيف يمكن الحد منها؟

    أولًا: ما مخاطر الذكاء الاصطناعي التوليدي؟

    تَنتج مخاطر الذكاء الاصطناعي التوليدي بنحو أساسي بسبب سوء استخدام الأدوات المعتمدة على هذه التقنية، وبسبب نشر المحتوى المضلل المولّد بواسطة هذه الأدوات. 

    وفيما يلي سنوضح مخاطر الذكاء الاصطناعي التوليدي الناتجة عن سوء الاستخدام والنشر دون التحقق من صحة المعلومات:

    1- إساءة الاستخدام:

    يشير سوء الاستخدام إلى الاستغلال غير الأخلاقي أو غير القانوني لقدرات الذكاء الاصطناعي التوليدي لأغراض ضارة مثل: عمليات الاحتيال والحملات المضللة.

     فمع تحسّن قدرات الذكاء الاصطناعي، استخدمه المحتالون في أنواع مختلفة من الهجمات الإلكترونية. على سبيل المثال: أدى انخفاض تكلفة إنشاء المحتوى بواسطة الذكاء الاصطناعي التوليدي إلى زيادة ما يُعرف بالتزييف العميق (deepfakes) الذي يُستخدم لنشر المعلومات غير الصحيحة وعمليات الاحتيال المالي، وسرقة الهوية، وللتلاعب بنتائج الانتخابات أيضًا.

    2- تقديم معلومات غير صحيحة:

    من المشكلات الأساسية المرتبطة باستخدام الذكاء الاصطناعي التوليدي تقديم مخرجات غير دقيقة أو غير صحيحة بنحو كامل، وهذه المشكلة تُعرف باسم (الهلوسة) hallucination. على سبيل المثال: في يونيو 2023، رفع مقدم برنامج إذاعي في جورجيا دعوى قضائية ضد OpenAI بعد أن صرح ChatGPT خطأً أنه متهم بالاحتيال واختلاس الأموال من منظمة غير ربحية. 

    3- نشر المحتوى دون التحقق من صحته:

    من أهم المخاطر المرتبطة بتقنية الذكاء الاصطناعي التوليدي استخدام مخرجات الذكاء الاصطناعي التي أنشأها طرف ثالث عن قصد ونشرها بالرغم من وجود شكوك حول مصداقيتها.

    ففي الآونة الأخيرة، انتشرت العديد من مقاطع الفيديو والصور المصممة بتقنية التزييف العميق من أشخاص غير معروفين، ونشرها الكثير من الناس. على سبيل المثال: انتشر مقطع فيديو يُظهر تحطم سيارة تسلا على منصة Reddit في مارس، وقد انتشر هذا المقطع على نطاق واسع قبل التحقق من أن الفيديو كان مزيفًا باستخدام تقنية التزييف العميق.

    بالإضافة إلى ذلك، يتسبب المحتوى الذي قد ينشره العديد من المستخدمين دون أن يدركوا عدم صحته بمشكلات كبيرة لشركات أو أفراد. 

    على سبيل المثال: شارك العديد من مستخدمي منصة x صورة مصممة بتقنية التزييف العميق لانفجار في البنتاغون؛ مما أدى إلى تراجع الأسهم في وول ستريت مؤقتًا؛ إذ اعتقد الكثيرون أن الصورة حقيقية. 

    من ناحية أخرى، يُستخدم التزييف العميق بنحو متزايد بطرق تتجاوز البروتوكولات الأمنية. ففي عام 2019، وَقَع الرئيس التنفيذي لشركة بريطانية ضحية للاحتيال الصوتي المزيف، فقد وردته مكالمة مزيفة من الرئيس التنفيذي للشركة الألمانية الأم، وطلب منه المُحتال خلالها تحويل مبلغ مالي قدره 220,000 يورو إلى الحساب المصرفي لمُورّد.

    ثانيًا: كيفية الحد من مخاطر الذكاء الاصطناعي التوليدي:

    تمثل كل من المخاطر المذكورة سابقًا تحديات فريدة، ومع ذلك هناك إجراءات يمكن للمسؤولين في كل من الشركات العامة والخاصة اتخاذها للتخفيف من هذه المخاطر. 

    ولكن يجب في البداية تحديد إذا كانت المخاطر ناتجة عن إنشاء محتوى غير صحيح باستخدام الذكاء الاصطناعي التوليدي، أو نشر المحتوى المزيف المصمم بواسطة هذه التقنية، وهذا التفريق هو ما يجب أن يُشكّل الأساس لاختيار الطرق المناسبة للحد من المخاطر.

    تخفيف المخاطر الناتجة عن إساءة استخدام الذكاء الاصطناعي التوليدي:

    للتخفيف من مخاطر إساءة استخدام الذكاء الاصطناعي التوليدي، تحتاج المؤسسات إلى تطوير أدوات لاكتشاف المحتوى المضلل ومنع انتشاره. ونظرًا إلى الضرر المُحتمل الذي قد يترتب على السمعة، يجب على المديرين التنفيذيين أن يكونوا استباقيين في إدراك هذا الخطر وإنشاء حواجز حماية فعالة في المنظمة. ويمكن للإجراءات التالية المساعدة في ذلك:

    1- وضع مبادئ وتوجيهات حول استخدام الذكاء الاصطناعي:

    يجب أن تبدأ الشركة أو المنظمة التي ترغب في استخدام الذكاء الاصطناعي التوليدي بوضع مبادئ وتوجيهات واضحة لاستخدام هذه التقنية بهدف ضمان عدم التسبب بأي ضرر شخصي أو مجتمعي. ويجب أن تُراعي المبادئ التي تختار المنظمة الالتزام بها القيم الأخلاقية للمنظمة. 

    إذ يجب على أي منظمة تنشئ أو تستخدم هذه التقنية ضمان التوافق بين القيم الأخلاقية ومبادئ استخدام الذكاء الاصطناعي. ولا يعمل هذا التوافق كضمان للمنظمة وحسب، بل يعمل أيضًا إستراتيجية للتفكير المستقبلي لضمان الاستخدام المسؤول والمستدام والمفيد للذكاء الاصطناعي.

    2- وضع علامة مائية على المحتوى المصمم باستخدام الذكاء الاصطناعي:

    عند إنشاء محتوى بواسطة الذكاء الاصطناعي، يجب أن تكون هذه الحقيقة متاحة للجمهور بوضوح، فهذا يضمن إمكانية تعرّف المحتوى الناتج عن استخدام أدوات معتمدة على هذه التقنية. 

    التزمت عمالقة الذكاء الاصطناعي، مثل: OpenAI و Alphabet وميتا بوضع علامات مائية على المحتوى الناتج عن الذكاء الاصطناعي لمعالجة المخاوف المتعلقة بالتهديدات المرتبطة بالذكاء الاصطناعي التوليدي. 

    3- إنشاء بيئة تحكم في الذكاء الاصطناعي داخل المنظمة:

    تتسابق العديد من المنظمات لإنشاء أدوات الذكاء الاصطناعي الخاصة بها عبر ضبط النماذج اللغوية LLM وفقًا لاحتياجاتها، وإضافة أدوات لإدارة الخصوصية تكون مناسبة للمنظمة.

    بالإضافة إلى ذلك، تُتيح النماذج اللغوية LLM المصممة خصوصًا للشركة قدرًا كبيرًا من التحكم في الخصوصية ويمكن للمؤسسات تنظيم مجموعات بيانات التدريب والتحقق من أنها غير متحيزة ولديها مزايا خصوصية لحماية المعلومات التي يُحتمل أن تكون سرية أو حساسة. 

    تخفيف المخاطر المرتبطة بنشر المحتوى المزيف:

    إن نشر المحتوى المزيف المولّد باستخدام الذكاء الاصطناعي واستخدامه سواء كان متعمدًا أم لا يمكن أن يخلق ضررًا بالسمعة وعواقب سلبية أخرى للشركات والأفراد. وللتخفيف من هذه المشكلات يمكن اتباع الطرق التالية:

    1- التوعية في مجال الذكاء الاصطناعي:

    من المهم وضع سياسات حول متى يمكن استخدام هذه التقنية داخل الشركات ومتى يجب عدم استخدامها، كما يجب توفير برامج تدريبية يمكنها زيادة الوعي حول الاستهلاك الآمن والمسؤول للمحتوى المصمم بواسطة الذكاء الاصطناعي التوليدي.

    2- التحقق من صحة مخرجات الذكاء الاصطناعي من خلال أنظمة متخصصة:

    بالإضافة إلى ضرورة إضافة العلامات المائية إلى المحتوى المولّد بواسطة الذكاء الاصطناعي، تحتاج المنظمات إلى إنشاء أنظمة أخرى متطورة للتحقق من المحتوى المنشور عبر الإنترنت، وهذا يقلل من مخاطر نشر المحتوى المُزيف الذي قد يؤثر سلبًا في سُمعة الشركات.



    تم نسخ الرابط

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابق10 أفلام رعب فظيعة للبث المباشر على Shudder
    التالي نظام المكافآت الخاص بسوني و بلايستيشن سيتوقف بشكل نهائي قريبًا

    المقالات ذات الصلة

    منوعات تقنية

    آبل تطوّر نظارات ذكية مزودة بتقنية الواقع المعزز

    9 مايو, 2025
    منوعات تقنية

    أمازون تكشف عن “Vulcan”.. أول روبوت يتمتع بحاسة اللمس من تطويرها

    9 مايو, 2025
    منوعات تقنية

    تراجع عمليات البحث في سفاري لأول مرة بسبب الذكاء الاصطناعي

    8 مايو, 2025
    منوعات تقنية

    آبل تدرس إدماج محركات بحث الذكاء الاصطناعي في متصفح سفاري

    8 مايو, 2025
    منوعات تقنية

    طريقة اخفاء التطبيقات الأفضل في الآيفون والأندرويد

    8 مايو, 2025
    منوعات تقنية

    طريقه شحن موبايل تحافظ على صحة البطارية

    8 مايو, 2025
    منوعات تقنية

    جامعة دبي الطبية تطلق أول خبيرة ذكاء اصطناعي متخصصة في الطب البديل والعلاج بالأعشاب

    7 مايو, 2025
    منوعات تقنية

    دراسة تكشف ضعف الذكاء الاصطناعي في فهم التفاعلات الاجتماعية

    7 مايو, 2025
    منوعات تقنية

    كيف تحمل فيديو من اليوتيوب بأسهل طريقة

    7 مايو, 2025
    اترك تعليقاً
    اترك تعليقاً إلغاء الرد

    Demo
    اخر الاخبار

    كيفية تسجيل مقاطع فيديو محمية بدون شاشة سوداء

    31 يوليو, 2024829 زيارة

    سامسونج جالكسي S25: الأخبار والسعر المتوقع وتاريخ الإصدار والمزيد

    4 يوليو, 2024692 زيارة

    كل ما تريد معرفته عن Reacher الموسم الثالث

    6 مايو, 2024669 زيارة

    Samsung Galaxy Watch 7: الأخبار والسعر المشاع وتاريخ الإصدار والمزيد

    2 أبريل, 2024646 زيارة

    4 مزايا بطاريات السيليكون الكربونية للهواتف الذكية

    7 مارس, 2024484 زيارة
    رائج الآن
    اخر الاخبار

    يحصل iPhone على أول تطبيق إباحي أصلي له

    فريق التحرير4 فبراير, 2025
    هواتف ذكية

    شاومي تعتزم تطوير نظام HyperOS خالٍ من خدمات جوجل

    فريق التحرير2 مايو, 2025
    اخر الاخبار

    كيفية تسجيل مقاطع فيديو محمية بدون شاشة سوداء

    فريق التحرير31 يوليو, 2024
    رائج الآن

    يحصل iPhone على أول تطبيق إباحي أصلي له

    4 فبراير, 202528 زيارة

    شاومي تعتزم تطوير نظام HyperOS خالٍ من خدمات جوجل

    2 مايو, 202521 زيارة

    كيفية تسجيل مقاطع فيديو محمية بدون شاشة سوداء

    31 يوليو, 20248 زيارة
    اختيارات المحرر

    سياسة رقاقة ترامب منظمة العفو الدولية لإلغاء ضوابط تصدير بايدن

    9 مايو, 2025

    بالملل من التلفزيون؟ حاول تغذية عقلك مع إمدادات مدى الحياة من الأفلام الوثائقية

    9 مايو, 2025

    مفاجأة غير سارة لمنتظري لعبة DOOM: The Dark Ages على PS5

    9 مايو, 2025
    تقنية نيوز
    فيسبوك X (Twitter) الانستغرام يوتيوب لينكدإن تيكتوك
    • الرئيسية
    • سياسة الخصوصية
    • من نحن
    • اتصل بنا
    © 2025 تقنية نيوز. جميع حقوق النشر محفوظة.

    اكتب كلمة البحث ثم اضغط على زر Enter