أصدرت السلطات الصينية مسودة قواعد تنظيمية جديدة لأنظمة الذكاء الاصطناعي المجسم، والتي تشمل روبوتات الدردشة وغيرها من التطبيقات التي تحاكي التفاعلات البشرية. جاء الإعلان يوم السبت، وتستهدف هذه القواعد ضمان توافق هذه التقنيات مع القيم الاشتراكية الأساسية وحماية الأمن القومي، بالإضافة إلى حقوق المستخدمين. وتدعو المسودة إلى جمع آراء الجمهور قبل تطبيقها.
تهدف هذه القواعد، الصادرة عن لجنة شؤون الفضاء الإلكتروني المركزية، إلى تنظيم تطوير واستخدام أنظمة الذكاء الاصطناعي التي تتفاعل مع المستخدمين من خلال النص أو الصورة أو الصوت أو الفيديو. وتأتي هذه الخطوة في وقت يشهد فيه العالم تطورات متسارعة في مجال الذكاء الاصطناعي، وتزايد المخاوف بشأن تأثيراته المحتملة على المجتمع.
تنظيم الذكاء الاصطناعي المجسم في الصين: التفاصيل الرئيسية
تتميز المسودة بكونها إطارًا عامًا، وليست مجموعة من القوانين الملزمة بشكل مباشر. ومع ذلك، فإنها تحدد مجموعة من المبادئ التوجيهية التي يجب على مطوري ومقدمي خدمات الذكاء الاصطناعي الالتزام بها. وتشمل هذه المبادئ ضرورة الكشف عن أن النظام هو ذكاء اصطناعي، وحماية بيانات المستخدمين، ومنع السلوكيات الضارة.
حماية القيم الاشتراكية والأمن القومي
تؤكد الوثيقة على أن أنظمة الذكاء الاصطناعي يجب أن تلتزم بـ “القيم الاشتراكية الأساسية”. وهذا يعني أنها لا ينبغي أن تنشر معلومات تهدد الأمن القومي، أو تروج للشائعات، أو تحرض على أنشطة تعتبرها الحكومة غير قانونية.
بالإضافة إلى ذلك، تحظر القواعد نشر محتوى إباحي أو عنيف أو إجرامي، وإنتاج مواد تشهيرية أو مسيئة، وتقديم وعود كاذبة. كما تمنع الأنظمة من التشجيع على إيذاء النفس أو الانتحار، أو التلاعب العاطفي بالمستخدمين.
حقوق المستخدمين والوقاية من الإدمان
تولي المسودة اهتمامًا خاصًا بحماية حقوق المستخدمين. وتنص على أنه يجب أن يكون المستخدمون قادرين على حذف سجلهم من التفاعلات مع أنظمة الذكاء الاصطناعي، وأنه لا يجوز استخدام بياناتهم لتدريب النماذج دون موافقتهم الصريحة.
في محاولة للحد من الإدمان المحتمل، تقترح القواعد إظهار نافذة منبثقة بعد ساعتين من الاستخدام المتواصل لتذكير المستخدمين بأخذ قسط من الراحة. كما يجب أن تكون الأنظمة قادرة على اكتشاف الحالات العاطفية الشديدة، مثل التهديدات بالانتحار، وتحويل المحادثة إلى متخصص بشري.
تأتي هذه القواعد في سياق أوسع من الجهود التنظيمية التي تبذلها الحكومة الصينية في مجال التكنولوجيا. فقد أصدرت الصين بالفعل قوانين ولوائح بشأن الأمن السيبراني وحماية البيانات والرقابة على الإنترنت. وتعتبر هذه القواعد الجديدة جزءًا من استراتيجية شاملة تهدف إلى ضمان أن التكنولوجيا تخدم مصالح الدولة والمجتمع.
التركيز على “القيم الاشتراكية الأساسية” يعكس التوجه الأيديولوجي للحكومة الصينية، ورغبتها في التحكم في تدفق المعلومات والتأثير على الرأي العام. هذا الجانب من القواعد قد يثير قلقًا بين الشركات الأجنبية التي تعمل في الصين، والتي قد تجد صعوبة في التوفيق بين متطلباتها التجارية والقواعد التنظيمية الصينية.
من الجدير بالذكر أن هذه القواعد لا تزال في مرحلة المسودة، وتخضع للتعديل بناءً على التعليقات التي ستتلقاها الحكومة من الجمهور. وتشير التقارير إلى أن هناك بعض النقاط التي قد تكون موضع نقاش، مثل تعريف “القيم الاشتراكية الأساسية” وكيفية تطبيقها على أنظمة الذكاء الاصطناعي.
بالإضافة إلى الذكاء الاصطناعي، فإن هذه القواعد قد يكون لها تأثير على تطوير تطبيقات أخرى تعتمد على تقنيات مماثلة، مثل الواقع الافتراضي والمعزز. فقد تستخدم الحكومة الصينية هذه القواعد كنموذج لتنظيم هذه التقنيات أيضًا.
تعتبر الصين واحدة من الدول الرائدة في مجال تطوير الذكاء الاصطناعي، وتستثمر بكثافة في هذا المجال. وتشير التقديرات إلى أن سوق الذكاء الاصطناعي في الصين سيصل إلى مئات المليارات من الدولارات في السنوات القادمة. لذلك، فإن القواعد التنظيمية الجديدة سيكون لها تأثير كبير على مستقبل هذا السوق.
من المتوقع أن تتلقى الحكومة الصينية تعليقات من الشركات والمؤسسات البحثية والخبراء القانونيين والجمهور العام بحلول الموعد النهائي المحدد في 25 يناير 2026. بعد ذلك، ستقوم الحكومة بمراجعة التعليقات وإجراء التعديلات اللازمة على المسودة قبل إصدار النسخة النهائية من القواعد. وسيكون من المهم مراقبة هذه العملية لمعرفة كيف ستؤثر القواعد النهائية على تطوير واستخدام تقنيات الذكاء الاصطناعي في الصين.
الخطوة التالية ستكون تحليل التعليقات الواردة من الجمهور والجهات المعنية، ومن ثم إصدار النسخة النهائية من القواعد التنظيمية. يبقى أن نرى ما إذا كانت الحكومة الصينية ستكون مستعدة لإجراء تعديلات كبيرة على المسودة بناءً على هذه التعليقات، أم أنها ستتمسك بموقفها الحالي.
