Close Menu
تقنية نيوزتقنية نيوز
    مقالات قد تهمك

    Roborock Smart Robot ينخفض ​​من 599 دولارًا إلى 159 دولارًا ، تقوم Amazon بمسح الأسهم في أدنى مستوى لها على الإطلاق

    10 يونيو, 2025

    كان HBO Max و Discovery Breakup أمرًا لا مفر منه

    10 يونيو, 2025

    آبل تكشف عن نظام watchOS 26 الجديد لساعاتها الذكية

    10 يونيو, 2025
    فيسبوك X (Twitter) الانستغرام
    • من نحن
    • سياسة الخصوصية
    • اتصل بنا
    فيسبوك X (Twitter) الانستغرام يوتيوب
    تقنية نيوزتقنية نيوز
    • الرئيسية
    • اخر الاخبار
    • هواتف ذكية
    • كمبيوتر
    • برامج وتطبيقات
    • شركات
      • ابل
      • سامسونج
      • جوجل
      • مايكروسوفت
      • أمازون
    • المزيد
      • الذكاء الإصطناعي
      • الأمن الإلكتروني
      • ألعاب
      • منوعات تقنية
    اشترك معنا
    تقنية نيوزتقنية نيوز
    الرئيسية » التحضير اليوم للوائح الذكاء الاصطناعي غدًا
    الذكاء الإصطناعي

    التحضير اليوم للوائح الذكاء الاصطناعي غدًا

    فريق التحريربواسطة فريق التحرير20 نوفمبر, 20240 زيارةلا توجد تعليقات
    شاركها فيسبوك تويتر بينتيريست لينكدإن Tumblr رديت تيلقرام البريد الإلكتروني
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    أصبح الذكاء الاصطناعي منتشرًا في كل مكان بسرعة عبر أنظمة الأعمال والأنظمة البيئية لتكنولوجيا المعلومات، مع تسارع وتيرة التبني والتطوير بشكل أسرع مما توقعه أي شخص. يبدو اليوم أنه في كل مكان نتجه إليه، يقوم مهندسو البرمجيات ببناء نماذج مخصصة ودمج الذكاء الاصطناعي في منتجاتهم، حيث يقوم قادة الأعمال بدمج الحلول التي تدعم الذكاء الاصطناعي في بيئات عملهم.

    ومع ذلك، فإن عدم اليقين بشأن أفضل طريقة لتطبيق الذكاء الاصطناعي يمنع بعض الشركات من اتخاذ الإجراءات اللازمة. كشف أحدث مؤشر للتسارع الرقمي (DAI) الصادر عن مجموعة بوسطن الاستشارية، وهو استطلاع عالمي شمل 2700 مدير تنفيذي، أن 28% فقط يقولون إن مؤسساتهم مستعدة تمامًا لتنظيم الذكاء الاصطناعي الجديد.

    وتتفاقم حالة عدم اليقين لديهم بسبب لوائح الذكاء الاصطناعي التي أصبحت كثيفة وسريعة: قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي في الطريق؛ أصدرت الأرجنتين مسودة خطة الذكاء الاصطناعي؛ لدى كندا قانون الذكاء الاصطناعي والبيانات؛ وقد سنت الصين عددا كبيرا من اللوائح التنظيمية الخاصة بالذكاء الاصطناعي؛ وأطلقت دول مجموعة السبع “عملية هيروشيما للذكاء الاصطناعي”. وتكثر المبادئ التوجيهية، مع قيام منظمة التعاون الاقتصادي والتنمية بتطوير مبادئ الذكاء الاصطناعي، واقتراح الأمم المتحدة إنشاء هيئة استشارية جديدة تابعة للأمم المتحدة في مجال الذكاء الاصطناعي، وإطلاق إدارة بايدن مخططا لشرعة حقوق الذكاء الاصطناعي (على الرغم من أن ذلك قد يتغير بسرعة مع إدارة ترامب الثانية).

    وتأتي التشريعات أيضًا في الولايات الأمريكية الفردية، وتظهر في العديد من أطر الصناعة. حتى الآن، سنت 21 ولاية قوانين لتنظيم استخدام الذكاء الاصطناعي بطريقة ما، بما في ذلك قانون كولورادو للذكاء الاصطناعي، والبنود الواردة في قانون CCPA في كاليفورنيا، بالإضافة إلى 14 ولاية أخرى لديها تشريعات في انتظار الموافقة.

    وفي الوقت نفسه، هناك أصوات عالية على جانبي النقاش حول تنظيم الذكاء الاصطناعي. أظهر استطلاع جديد أجرته شركة SolarWinds أن 88% من متخصصي تكنولوجيا المعلومات يؤيدون تنظيمًا أقوى، ويكشف بحث منفصل أن 91% من الشعب البريطاني يريدون من الحكومة بذل المزيد من الجهد لمساءلة الشركات عن أنظمة الذكاء الاصطناعي الخاصة بها. من ناحية أخرى، كتب قادة أكثر من 50 شركة تكنولوجية مؤخرا رسالة مفتوحة يدعوون فيها إلى إصلاح عاجل للوائح التنظيمية الصارمة الخاصة بالذكاء الاصطناعي في الاتحاد الأوروبي، بحجة أنها تخنق الابتكار.

    إنها بالتأكيد فترة صعبة بالنسبة لقادة الأعمال ومطوري البرمجيات، حيث يتدافع المنظمون للحاق بركب التكنولوجيا. بالطبع تريد الاستفادة من المزايا التي يمكن أن يوفرها الذكاء الاصطناعي، ويمكنك القيام بذلك بطريقة تؤهلك للامتثال لأي متطلبات تنظيمية قادمة، ولا تعيق استخدامك للذكاء الاصطناعي دون داع بينما يتقدم منافسوك بسرعة.

    ليس لدينا كرة بلورية، لذلك لا يمكننا التنبؤ بالمستقبل. ولكن يمكننا مشاركة بعض أفضل الممارسات لإعداد الأنظمة والإجراءات التي من شأنها أن تمهد الطريق للامتثال التنظيمي للذكاء الاصطناعي.

    قم بتخطيط استخدام الذكاء الاصطناعي في نظامك البيئي الأوسع

    لا يمكنك إدارة استخدام فريقك للذكاء الاصطناعي إلا إذا كنت على علم بذلك، ولكن هذا وحده يمكن أن يشكل تحديًا كبيرًا. تعد تقنية Shadow IT بالفعل آفة فرق الأمن السيبراني: حيث يقوم الموظفون بالتسجيل للحصول على أدوات SaaS دون معرفة أقسام تكنولوجيا المعلومات، مما يترك عددًا غير معروف من الحلول والمنصات مع إمكانية الوصول إلى بيانات و/أو أنظمة الأعمال.

    والآن يتعين على فرق الأمن أيضًا التعامل مع الظل الاصطناعي. تتضمن العديد من التطبيقات وروبوتات الدردشة والأدوات الأخرى الذكاء الاصطناعي أو التعلم الآلي (ML) أو برمجة اللغة الطبيعية (NLP)، دون أن تكون هذه الحلول بالضرورة حلولاً واضحة للذكاء الاصطناعي. عندما يقوم الموظفون بتسجيل الدخول إلى هذه الحلول دون موافقة رسمية، فإنهم يقومون بإدخال الذكاء الاصطناعي إلى أنظمتك دون علمك.

    وكما أوضح هنريكي فابريتي مورايس، خبير خصوصية البيانات في Opice Blum، فإن “رسم خرائط الأدوات المستخدمة ــ أو تلك المخصصة للاستخدام ــ أمر بالغ الأهمية لفهم وضبط سياسات الاستخدام المقبول وتدابير التخفيف المحتملة لتقليل المخاطر التي ينطوي عليها استخدامها”.

    تحملك بعض اللوائح مسؤولية استخدام الذكاء الاصطناعي من قبل البائعين. للسيطرة الكاملة على الموقف، تحتاج إلى رسم خريطة لجميع أنظمة الذكاء الاصطناعي في بيئاتك وبيئات المنظمات الشريكة لك. وفي هذا الصدد، يمكن أن يكون استخدام أداة مثل Harmonic مفيدًا في اكتشاف استخدام الذكاء الاصطناعي عبر سلسلة التوريد.

    التحقق من إدارة البيانات

    تعد خصوصية البيانات وأمنها من الاهتمامات الأساسية لجميع لوائح الذكاء الاصطناعي، سواء تلك الموجودة بالفعل أو تلك التي على وشك الموافقة عليها.

    يحتاج استخدامك للذكاء الاصطناعي إلى الامتثال بالفعل لقوانين الخصوصية الحالية مثل اللائحة العامة لحماية البيانات (GDPR) وCCPR، والتي تتطلب منك معرفة البيانات التي يمكن للذكاء الاصطناعي الخاص بك الوصول إليها وما يفعله بالبيانات، وإظهار حواجز الحماية لحماية البيانات التي يستخدمها الذكاء الاصطناعي.

    لضمان الامتثال، تحتاج إلى وضع قواعد قوية لإدارة البيانات في مؤسستك، ويديرها فريق محدد، وتدعمها عمليات تدقيق منتظمة. يجب أن تتضمن سياساتك العناية الواجبة لتقييم أمان البيانات ومصادر جميع أدواتك، بما في ذلك تلك التي تستخدم الذكاء الاصطناعي، لتحديد مجالات التحيز المحتملة ومخاطر الخصوصية.

    وقال روب جونسون، نائب الرئيس والرئيس العالمي لهندسة الحلول في شركة SolarWinds: “يتعين على المؤسسات اتخاذ تدابير استباقية من خلال تعزيز نظافة البيانات وفرض أخلاقيات الذكاء الاصطناعي القوية وتجميع الفرق المناسبة لقيادة هذه الجهود”. “لا يساعد هذا الموقف الاستباقي في الامتثال للوائح المتطورة فحسب، بل يزيد أيضًا من إمكانات الذكاء الاصطناعي.”

    إنشاء مراقبة مستمرة لأنظمة الذكاء الاصطناعي لديك

    تعد المراقبة الفعالة أمرًا بالغ الأهمية لإدارة أي مجال من مجالات عملك. عندما يتعلق الأمر بالذكاء الاصطناعي، كما هو الحال مع مجالات الأمن السيبراني الأخرى، فإنك تحتاج إلى مراقبة مستمرة للتأكد من أنك تعرف ما تفعله أدوات الذكاء الاصطناعي لديك، وكيف تتصرف، وما هي البيانات التي تصل إليها. تحتاج أيضًا إلى مراجعتها بانتظام لمواكبة استخدام الذكاء الاصطناعي في مؤسستك.

    وقال كاش ميريل، مؤسس شركة تطوير البرمجيات Zibtek: “إن فكرة استخدام الذكاء الاصطناعي لمراقبة وتنظيم أنظمة الذكاء الاصطناعي الأخرى هي تطور حاسم في ضمان فعالية هذه الأنظمة وأخلاقيتها”. “في الوقت الحالي، يتم استخدام تقنيات مثل نماذج التعلم الآلي التي تتنبأ بسلوكيات النماذج الأخرى (النماذج الفوقية) لمراقبة الذكاء الاصطناعي. وتقوم الأنظمة بتحليل أنماط ومخرجات الذكاء الاصطناعي التشغيلي للكشف عن الحالات الشاذة أو التحيزات أو حالات الفشل المحتملة قبل أن تصبح حرجة.

    تسمح لك منصة أتمتة Cyber ​​GRC Cypago بإجراء المراقبة المستمرة وجمع أدلة التدقيق التنظيمي في الخلفية. تسمح لك الأتمتة بدون تعليمات برمجية بتعيين إمكانات سير العمل المخصصة دون خبرة فنية، لذلك يتم تشغيل التنبيهات وإجراءات التخفيف على الفور وفقًا لعناصر التحكم والحدود التي قمت بإعدادها.

    يمكن لـ Cypago الاتصال بمنصاتك الرقمية المختلفة، والمزامنة مع أي إطار تنظيمي تقريبًا، وتحويل كافة عناصر التحكم ذات الصلة إلى سير عمل آلي. بمجرد إعداد عمليات التكامل والأطر التنظيمية، يصبح إنشاء مسارات عمل مخصصة على النظام الأساسي أمرًا بسيطًا مثل تحميل جدول بيانات.

    استخدم تقييمات المخاطر كمبادئ توجيهية خاصة بك

    من الضروري معرفة أي من أدوات الذكاء الاصطناعي لديك عالية المخاطر ومتوسطة المخاطر ومنخفضة المخاطر – للامتثال للوائح الخارجية وإدارة مخاطر الأعمال الداخلية وتحسين سير عمل تطوير البرامج. ستحتاج حالات الاستخدام عالية الخطورة إلى مزيد من الضمانات والتقييم قبل النشر.

    وقالت عائشة جولي، خبيرة سياسات الذكاء الاصطناعي في شركة Holistic AI: “بينما يمكن البدء في إدارة مخاطر الذكاء الاصطناعي في أي مرحلة من مراحل تطوير المشروع”. “إن تنفيذ إطار إدارة المخاطر عاجلاً وليس آجلاً يمكن أن يساعد الشركات على زيادة الثقة والتوسع بثقة.”

    عندما تعرف المخاطر التي تشكلها حلول الذكاء الاصطناعي المختلفة، يمكنك اختيار مستوى الوصول الذي ستمنحه للبيانات وأنظمة الأعمال المهمة.

    ومن حيث اللوائح، فإن قانون الذكاء الاصطناعي في الاتحاد الأوروبي يميز بالفعل بين أنظمة الذكاء الاصطناعي ذات مستويات المخاطر المختلفة، ويوصي المعهد الوطني للمعايير والتكنولوجيا بتقييم أدوات الذكاء الاصطناعي على أساس الجدارة بالثقة والتأثير الاجتماعي وكيفية تفاعل البشر مع النظام.

    وضع حوكمة أخلاقيات الذكاء الاصطناعي بشكل استباقي

    لا تحتاج إلى انتظار لوائح الذكاء الاصطناعي لوضع سياسات الذكاء الاصطناعي الأخلاقية. تخصيص المسؤولية عن اعتبارات الذكاء الاصطناعي الأخلاقية، وتشكيل الفرق، ووضع سياسات للاستخدام الأخلاقي للذكاء الاصطناعي والتي تشمل الأمن السيبراني، والتحقق من صحة النماذج، والشفافية، وخصوصية البيانات، والإبلاغ عن الحوادث.

    توصي الكثير من أطر العمل الحالية، مثل AI RMF من NIST وISO/IEC 42001، بأفضل ممارسات الذكاء الاصطناعي التي يمكنك دمجها في سياساتك.

    “إن تنظيم الذكاء الاصطناعي أمر ضروري ولا مفر منه لضمان الاستخدام الأخلاقي والمسؤول. قال أريك سولومون، الرئيس التنفيذي والمؤسس المشارك لشركة Cypago: “على الرغم من أن هذا قد يؤدي إلى تعقيدات، إلا أنه ليس من الضروري أن يعيق الابتكار”. “من خلال دمج الامتثال في أطرها الداخلية وتطوير السياسات والعمليات المتوافقة مع المبادئ التنظيمية، يمكن للشركات في الصناعات المنظمة الاستمرار في النمو والابتكار بشكل فعال.”

    الشركات التي يمكنها إظهار نهج استباقي تجاه الذكاء الاصطناعي الأخلاقي ستكون في وضع أفضل للامتثال. تهدف لوائح الذكاء الاصطناعي إلى ضمان الشفافية وخصوصية البيانات، لذلك إذا كانت أهدافك تتوافق مع هذه المبادئ، فمن المرجح أن يكون لديك سياسات مطبقة تتوافق مع اللوائح المستقبلية. يمكن لمنصة FairNow أن تساعد في هذه العملية، من خلال أدوات لإدارة حوكمة الذكاء الاصطناعي، وفحص التحيز، وتقييمات المخاطر في مكان واحد.

    لا تدع الخوف من تنظيم الذكاء الاصطناعي يعيقك

    لا تزال لوائح الذكاء الاصطناعي تتطور وتنشأ، مما يخلق حالة من عدم اليقين للشركات والمطورين. لكن لا تدع الوضع المتقلب يمنعك من الاستفادة من الذكاء الاصطناعي. من خلال التنفيذ الاستباقي للسياسات وسير العمل والأدوات التي تتوافق مع مبادئ خصوصية البيانات والشفافية والاستخدام الأخلاقي، يمكنك الاستعداد للوائح الذكاء الاصطناعي والاستفادة من الإمكانيات التي يدعمها الذكاء الاصطناعي.

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابقلا مزيد من المخاوف: يتمتع Microsoft Edge بحماية من البرامج الضارة
    التالي فيما يلي أكبر الميزات الجديدة (حتى الآن) في Android 16

    المقالات ذات الصلة

    الذكاء الإصطناعي

    المملكة المتحدة تعالج فجوة مهارات الذكاء الاصطناعي من خلال شراكة Nvidia

    9 يونيو, 2025
    الذكاء الإصطناعي

    يطلق الأنثروبور نماذج كلود AI للأمن القومي الأمريكي

    6 يونيو, 2025
    الذكاء الإصطناعي

    Reddit يقاضي الأنثروبور على تجريف بيانات الذكاء الاصطناعي

    5 يونيو, 2025
    الذكاء الإصطناعي

    منظمة العفو الدولية تنشر الأمن والحوكمة ، مع Deloitte

    4 يونيو, 2025
    الذكاء الإصطناعي

    منظمة العفو الدولية تتيح التحول من التمكين إلى القيادة الاستراتيجية

    4 يونيو, 2025
    الذكاء الإصطناعي

    يعلم MIT Spinout منظمة العفو الدولية أن تعترف عندما يكون الأمر جاهلًا

    3 يونيو, 2025
    الذكاء الإصطناعي

    يستخدم IBM و Roche منظمة العفو الدولية للتنبؤ بمستويات السكر في الدم

    2 يونيو, 2025
    الذكاء الإصطناعي

    أحدث طراز من الذكاء الاصطناعي لـ Deepseek A “خطوة كبيرة إلى الوراء” لحرية التعبير

    30 مايو, 2025
    الذكاء الإصطناعي

    نموذج AI من Odyssey يحول الفيديو إلى عوالم تفاعلية

    29 مايو, 2025
    اترك تعليقاً
    اترك تعليقاً إلغاء الرد

    Demo
    اخر الاخبار

    كيفية تسجيل مقاطع فيديو محمية بدون شاشة سوداء

    31 يوليو, 2024878 زيارة

    سامسونج جالكسي S25: الأخبار والسعر المتوقع وتاريخ الإصدار والمزيد

    4 يوليو, 2024695 زيارة

    كل ما تريد معرفته عن Reacher الموسم الثالث

    6 مايو, 2024677 زيارة

    Samsung Galaxy Watch 7: الأخبار والسعر المشاع وتاريخ الإصدار والمزيد

    2 أبريل, 2024646 زيارة

    4 مزايا بطاريات السيليكون الكربونية للهواتف الذكية

    7 مارس, 2024486 زيارة
    رائج الآن
    اخر الاخبار

    يحصل iPhone على أول تطبيق إباحي أصلي له

    فريق التحرير4 فبراير, 2025
    اخر الاخبار

    هل يستمع هاتفك سراً؟ إليك طريقة بسيطة لمعرفة ذلك

    فريق التحرير13 أبريل, 2025
    اخر الاخبار

    كيفية تسجيل مقاطع فيديو محمية بدون شاشة سوداء

    فريق التحرير31 يوليو, 2024
    رائج الآن

    يحصل iPhone على أول تطبيق إباحي أصلي له

    4 فبراير, 202511 زيارة

    هل يستمع هاتفك سراً؟ إليك طريقة بسيطة لمعرفة ذلك

    13 أبريل, 20258 زيارة

    كيفية تسجيل مقاطع فيديو محمية بدون شاشة سوداء

    31 يوليو, 20245 زيارة
    اختيارات المحرر

    Roborock Smart Robot ينخفض ​​من 599 دولارًا إلى 159 دولارًا ، تقوم Amazon بمسح الأسهم في أدنى مستوى لها على الإطلاق

    10 يونيو, 2025

    كان HBO Max و Discovery Breakup أمرًا لا مفر منه

    10 يونيو, 2025

    آبل تكشف عن نظام watchOS 26 الجديد لساعاتها الذكية

    10 يونيو, 2025
    تقنية نيوز
    فيسبوك X (Twitter) الانستغرام يوتيوب لينكدإن تيكتوك
    • الرئيسية
    • سياسة الخصوصية
    • من نحن
    • اتصل بنا
    © 2025 تقنية نيوز. جميع حقوق النشر محفوظة.

    اكتب كلمة البحث ثم اضغط على زر Enter