يؤدي مشروع قانون كاليفورنيا الذي يحاول تنظيم نماذج الذكاء الاصطناعي الحدودية الكبيرة إلى خلق مواجهة دراماتيكية حول مستقبل الذكاء الاصطناعي. لسنوات، تم تقسيم الذكاء الاصطناعي إلى “أكسل” و”ديسيل”يريد المتسارعون أن يتقدم الذكاء الاصطناعي بسرعة – التحرك بسرعة وكسر الأشياء – بينما يريد المتخلفون أن يتباطأ تطوير الذكاء الاصطناعي من أجل الإنسانية. تحولت المعركة إلى دائرة الضوء الوطنية عندما أطاح مجلس إدارة OpenAI بسام ألتمان لفترة وجيزة، والعديد منهم منذ ذلك الحين انفصل عن بدء التشغيل باسم سلامة الذكاء الاصطناعي. والآن، يجعل مشروع قانون كاليفورنيا هذه المعركة سياسية.
ما هو SB 1047؟
س.ب 1047 هو مشروع قانون في ولاية كاليفورنيا من شأنه أن يجعل كبار مقدمي نماذج الذكاء الاصطناعي – مثل Meta، وOpenAI، وAnthropic، وMistral – مسؤولين عن المخاطر الكارثية المحتملة لأنظمة الذكاء الاصطناعي الخاصة بهم. تم تمرير مشروع القانون، الذي وضعه عضو مجلس الشيوخ عن الولاية سكوت وينر، عبر مجلس الشيوخ في ولاية كاليفورنيا في شهر مايو أزالت عقبة رئيسية أخرى نحو أن يصبح قانونًا هذا الأسبوع.
لماذا يجب أن أهتم؟
حسنًا، قد يصبح هذا أول تنظيم حقيقي للذكاء الاصطناعي في الولايات المتحدة، وهذا يحدث في كاليفورنيا، حيث توجد جميع شركات الذكاء الاصطناعي الكبرى.
وينر يصف الفاتورة باعتبارها وضع “معايير سلامة واضحة ويمكن التنبؤ بها ومنطقية لمطوري أكبر وأقوى أنظمة الذكاء الاصطناعي”. رغم ذلك، لا يرى الجميع الأمر بهذه الطريقة. ويدق كثيرون في وادي السيليكون أجراس الإنذار بأن هذا القانون سيقضي على عصر الذكاء الاصطناعي قبل أن يبدأ.
ماذا يفعل SB 1047 في الواقع؟
يجعل قانون SB 1047 مقدمي نماذج الذكاء الاصطناعي مسؤولين عن أي “أضرار جسيمة”، مع الإشارة على وجه التحديد إلى دورهم في إنشاء “أحداث ذات إصابات جماعية”. وبقدر ما قد يبدو ذلك غريبًا، إلا أنه كبير لأن وادي السيليكون تهرب تاريخيًا من معظم المسؤولية عن أضراره. ويمكّن مشروع القانون المدعي العام في كاليفورنيا من اتخاذ إجراءات قانونية ضد هذه الشركات إذا تسبب أحد نماذج الذكاء الاصطناعي الخاصة بها في ضرر جسيم لسكان كاليفورنيا.
يتضمن SB 1047 أيضًا بند “إيقاف التشغيل” الذي يتطلب بشكل فعال من شركات الذكاء الاصطناعي إنشاء مفتاح إيقاف لنموذج الذكاء الاصطناعي في حالة الطوارئ.
وينشئ مشروع القانون أيضًا “قسم الحدود النموذجية” داخل وكالة العمليات الحكومية في كاليفورنيا. ستقوم هذه المجموعة “بتقديم التوجيه” لمقدمي نماذج الذكاء الاصطناعي الحدودية بشأن معايير السلامة التي يجب على كل شركة الالتزام بها. إذا لم تأخذ الشركات في الاعتبار توصيات القسم، فقد يتم مقاضاتها ومواجهة عقوبات مدنية.
من يدعم مشروع القانون هذا؟
إلى جانب السيناتور وينر، قام اثنان من الباحثين البارزين في مجال الذكاء الاصطناعي، ويُطلق عليهم أحيانًا اسم “عرابو الذكاء الاصطناعي”، وهما جيفري هينتون ويوشوا بنجيو، بوضع أسمائهم على مشروع القانون هذا. وقد كان هذان الشخصان بارزين جدًا في إصدار مكالمات تحذيرية حول مخاطر الذكاء الاصطناعي.
على نطاق أوسع، يتماشى مشروع القانون هذا مع وجهة نظر ديسيل، التي تعتقد أن الذكاء الاصطناعي لديه احتمالية عالية نسبيًا لإنهاء البشرية ويجب تنظيمه على هذا النحو. معظم هؤلاء الأشخاص هم باحثون في مجال الذكاء الاصطناعي، ولا يحاولون فعليًا تحويل منتج الذكاء الاصطناعي إلى سلعة لأنهم، كما تعلمون، يعتقدون أنه قد يؤدي إلى إنهاء البشرية.
تم رعاية مشروع القانون من قبل مركز سلامة الذكاء الاصطناعي، الذي يرأسه دان هندريكس. نشرت مجموعته تقريرًا رسالة مفتوحة في مايو 2023 قائلًا إن خطر الذكاء الاصطناعي في انقراض الإنسان يجب أن يؤخذ على محمل الجد مثل الحروب النووية أو الأوبئة. تم التوقيع عليها من قبل سام ألتمان، وبيل جيتس، وغرايمز، والعديد من الأشخاص المؤثرين في مجال التكنولوجيا. إنهم مجموعة مؤثرة ولاعب رئيسي في الترويج لمشروع القانون هذا.
في مارس 2023، دعت المراسيم إلى “وقفة” على كل تطوير الذكاء الاصطناعي لتنفيذ البنية التحتية للسلامة. على الرغم من أن الأمر يبدو متطرفًا، إلا أن هناك الكثير من الأشخاص الأذكياء في مجتمع الذكاء الاصطناعي الذين يعتقدون حقًا أن الذكاء الاصطناعي يمكن أن ينهي البشرية. فكرتهم هي أنه إذا كان هناك أي احتمال بأن يؤدي الذكاء الاصطناعي إلى إنهاء البشرية، فيجب علينا تنظيمه بصرامة، في حالة حدوث ذلك.
منطقي. إذن من هو ضد SB 1047؟
إذا كنت على X، فسيبدو الأمر كما لو أن الجميع في Silicon Valley ضد SB 1047. أصحاب رؤوس الأموال، ومؤسسو الشركات الناشئة، وباحثو الذكاء الاصطناعي، وقادة مجتمع الذكاء الاصطناعي مفتوح المصدر يكرهون مشروع القانون هذا. سأصنف هؤلاء الأشخاص بشكل عام على أنهم أكسل، أو على الأقل، هذا هو المكان الذي يصلون فيه إلى هذه المشكلة. ويعمل الكثير منهم في مجال الذكاء الاصطناعي، لكن بعضهم باحثون أيضًا.
الشعور العام هو أن SB 1047 يمكن أن يجبر موفري نماذج الذكاء الاصطناعي مثل Meta وMistral على تقليص جهودهم مفتوحة المصدر أو إيقافها تمامًا. يجعلهم مشروع القانون هذا مسؤولين عن الجهات الفاعلة السيئة التي تستخدم نماذج الذكاء الاصطناعي الخاصة بهم، وقد لا تتحمل هذه الشركات تلك المسؤولية بسبب صعوبات وضع قيود على الذكاء الاصطناعي التوليدي، والطبيعة المفتوحة للمنتجات.
قال Anjney Midha، الشريك العام لشركة A16Z ومدير مجلس إدارة شركة Mistral، في مقابلة مع Gizmodo: “سوف يقتل ويسحق ويبطئ النظام البيئي للشركات الناشئة مفتوحة المصدر تمامًا”. “إن مشروع القانون هذا يشبه محاولة تضييق الخناق على التقدم في المطبعة، بدلاً من التركيز على المكان الذي ينبغي أن يكون فيه، وهو استخدامات المطبعة”.
وقال أيون ستويكا، أستاذ علوم الكمبيوتر في جامعة بيركلي والرئيس التنفيذي لشركة داتابريكس، في مقابلة: “المصدر المفتوح هو أفضل أمل لنا للبقاء في المقدمة من خلال الجمع بين اختبارات السلامة الشفافة للنماذج الناشئة، بدلاً من السماح لعدد قليل من الشركات القوية بالسيطرة على الذكاء الاصطناعي في سرية”.
مدها وستويكا ليسا الوحيدين الذين ينظرون إلى تنظيم الذكاء الاصطناعي على أنه أمر وجودي لهذه الصناعة. لقد ساهم الذكاء الاصطناعي مفتوح المصدر في تشغيل مشهد الشركات الناشئة الأكثر ازدهارًا في وادي السيليكون منذ سنوات. يقول معارضو SB 1047 إن مشروع القانون سيفيد الشركات القائمة المغلقة في شركات التكنولوجيا الكبرى بدلاً من ذلك النظام البيئي المزدهر والمفتوح.
قال جيريمي نيكسون، مؤسس AGI House، الذي يعمل كمركز لمسابقات الذكاء الاصطناعي مفتوحة المصدر في وادي السيليكون: “أرى حقًا أن هذا وسيلة لعرقلة تطوير الذكاء الاصطناعي مفتوح المصدر، كجزء من استراتيجية أوسع لإبطاء الذكاء الاصطناعي”. “ينبع مشروع القانون من مجتمع مهتم جدًا بإيقاف الذكاء الاصطناعي مؤقتًا بشكل عام.”
هذا يبدو تقنيًا حقًا. هل يستطيع المشرعون الحصول على كل هذا بشكل صحيح؟
إنه أمر تقني بالتأكيد، وقد خلق ذلك بعض المشكلات. ينطبق SB 1047 فقط على النماذج الحدودية “الكبيرة”، ولكن ما هو الحجم الكبير؟ يعرّفها مشروع القانون على أنها نماذج ذكاء اصطناعي تم تدريبها على 10^26 FLOPS وتكلف التدريب أكثر من 100 مليون دولار، وهي كمية محددة وكبيرة جدًا من قوة الحوسبة وفقًا لمعايير اليوم. المشكلة هي أن الذكاء الاصطناعي ينمو بسرعة كبيرة، والنماذج الحديثة من عام 2023 تبدو صغيرة مقارنة بمعايير 2024. إن لصق العلم في الرمال لا يعمل بشكل جيد بالنسبة لحقل يتحرك بهذه السرعة.
وليس من الواضح أيضًا ما إذا كان من الممكن منع أنظمة الذكاء الاصطناعي بشكل كامل من سوء التصرف. الحقيقة هي أننا لا نعرف الكثير عن كيفية عمل ماجستير إدارة الأعمال، كما أن نماذج الذكاء الاصطناعي الرائدة اليوم من OpenAI وAnthropic وGoogle مكسورة الحماية طوال الوقت. ولهذا السبب يقول بعض الباحثين إن الهيئات التنظيمية يجب أن تركز على الجهات الفاعلة السيئة، وليس على مقدمي النماذج.
قال رافيد شفارتز زيف، الأستاذ المساعد الذي يدرس الذكاء الاصطناعي في جامعة نيويورك إلى جانب يان ليكون، في مقابلة: “مع الذكاء الاصطناعي، تحتاج إلى تنظيم حالة الاستخدام، والإجراء، وليس النماذج نفسها”. “يمكن لأفضل الباحثين في العالم قضاء كميات لا حصر لها من الوقت في نموذج الذكاء الاصطناعي، ولا يزال الناس قادرين على كسر حمايته.”
يتعلق جزء تقني آخر من مشروع القانون هذا بنماذج الذكاء الاصطناعي مفتوحة المصدر. إذا أخذت شركة ناشئة Meta's Llama 3، وهو أحد نماذج الذكاء الاصطناعي مفتوحة المصدر الأكثر شيوعًا، وقامت بضبطه ليصبح شيئًا خطيرًا، فهل لا تزال Meta مسؤولة عن نموذج الذكاء الاصطناعي هذا؟
في الوقت الحالي، لا تلبي Meta's Llama الحد الأدنى لـ “النموذج المغطى”، ولكن من المحتمل أن تفعل ذلك في المستقبل. وبموجب مشروع القانون هذا، يبدو أن ميتا بالتأكيد يمكن أن تتحمل المسؤولية. هناك تحذير أنه إذا أنفق المطور أكثر من 25% من تكلفة تدريب Llama 3 على الضبط الدقيق، فإن هذا المطور هو المسؤول الآن. ومع ذلك، لا يزال معارضو مشروع القانون يعتبرون هذا النهج غير عادل وغير صحيح.
سؤال سريع: هل الذكاء الاصطناعي هو في الواقع حرية التعبير؟
غير واضح. يرى الكثيرون في مجتمع الذكاء الاصطناعي أن الذكاء الاصطناعي مفتوح المصدر هو نوع من حرية التعبير (ولهذا السبب أشار إليه مدها على أنه مطبعة). الفرضية هي أن الكود الأساسي لنموذج الذكاء الاصطناعي هو شكل من أشكال التعبير، ومخرجات النموذج هي تعبيرات أيضًا. لقد وقع القانون تاريخياً تحت التعديل الأول في عدة حالات.
جادل ثلاثة من أساتذة القانون مقال عن الحرب القانونية أن نماذج الذكاء الاصطناعي ليست حرية تعبير تمامًا. على سبيل المثال، يقولون إن الأوزان التي تشكل نموذج الذكاء الاصطناعي لا يكتبها البشر ولكن يتم إنشاؤها من خلال عمليات التعلم الآلي الواسعة. البشر بالكاد يستطيعون قراءتها.
أما بالنسبة لمخرجات نماذج الذكاء الاصطناعي الحدودي، فإن هذه الأنظمة تختلف قليلاً عن خوارزميات وسائل التواصل الاجتماعي، والتي اعتبرت أنها تندرج تحت التعديل الأول في الماضي. نماذج الذكاء الاصطناعي لا تأخذ وجهة نظر محددة، بل تقول الكثير من الأشياء. ولهذا السبب، يقول أساتذة القانون هؤلاء إن قانون SB 1047 قد لا يمس التعديل الأول.
إذا ما هو التالي؟
يتجه مشروع القانون نحو التصويت السريع في أغسطس والذي سيرسل مشروع القانون إلى مكتب الحاكم جافين نيوسوم. يجب إزالة بعض العقبات الرئيسية للوصول إلى هناك، وحتى ذلك الحين، قد لا يوقع نيوسوم عليه بسبب الضغط من وادي السيليكون. أرسلت مجموعة تجارية تقنية كبيرة للتو رسالة إلى نيوسوم تخبره بعدم التوقيع على SB 1047.
ومع ذلك، قد يرغب نيوسوم في وضع سابقة للأمة في مجال الذكاء الاصطناعي. إذا دخل قانون SB 1047 حيز التنفيذ، فقد يغير مشهد الذكاء الاصطناعي بشكل جذري في أمريكا.
تصحيح، 25 يونيو: لم تحدد النسخة السابقة من هذه المقالة ما هي “الأضرار الجسيمة”. وذكرت أيضًا أن لعبة Meta's Llama 3 قد تتأثر، لكن نموذج الذكاء الاصطناعي ليس كبيرًا بما يكفي في الوقت الحالي. ومن المرجح أن تتأثر في المستقبل. وأخيرًا، تم نقل قسم Frontier Model Division إلى وكالة العمليات الحكومية في كاليفورنيا، وليس إلى وزارة التكنولوجيا. هذه المجموعة ليس لديها سلطة تنفيذية في هذا الوقت.