أرسل خمسة من كبار أعضاء مجلس الشيوخ الديمقراطيين رسالة إلى الرئيس التنفيذي لشركة OpenAI سام ألتمان، يطلبون فيها توضيحات بشأن ممارسات الشركة المتعلقة بالسلامة والتوظيف.
وتأتي الرسالة – التي وقعها أعضاء مجلس الشيوخ بريان شاتز، وبين راي لوجان، وبيتر ويلش، ومارك آر. وارنر، وأنجوس إس. كينج جونيور – ردًا على التقارير الأخيرة التي تشكك في التزام OpenAI بأهدافها المعلنة في تطوير الذكاء الاصطناعي بشكل آمن ومسؤول.
ويؤكد أعضاء مجلس الشيوخ على أهمية سلامة الذكاء الاصطناعي لتعزيز القدرة التنافسية الاقتصادية الوطنية والمكانة الجيوسياسية. ويشيرون إلى شراكات OpenAI مع الحكومة الأمريكية ووكالات الأمن القومي لتطوير أدوات الأمن السيبراني، مما يؤكد على الطبيعة الحرجة لأنظمة الذكاء الاصطناعي الآمنة.
وجاء في الرسالة: “إن الأمن القومي والاقتصادي من بين أهم مسؤوليات حكومة الولايات المتحدة، وأن أنظمة الذكاء الاصطناعي غير الآمنة أو المعرضة للخطر غير مقبولة”.
وقد طلب المشرعون معلومات مفصلة حول العديد من المجالات الرئيسية بحلول 13 أغسطس 2024. وتشمل هذه المجالات ما يلي:
- تلتزم OpenAI بتخصيص 20% من موارد الحوسبة الخاصة بها لأبحاث سلامة الذكاء الاصطناعي.
- موقف الشركة من اتفاقيات عدم التشهير للموظفين الحاليين والسابقين.
- إجراءات لتمكين الموظفين من إثارة المخاوف المتعلقة بالأمن السيبراني والسلامة.
- بروتوكولات أمنية لمنع سرقة نماذج الذكاء الاصطناعي أو الأبحاث أو الملكية الفكرية.
- التزام OpenAI بقواعد سلوك الموردين الخاصة بها فيما يتعلق بسياسات عدم الانتقام وقنوات الإبلاغ عن المخالفات.
- خطط لإجراء اختبارات وتقييمات خبراء مستقلين لأنظمة OpenAI قبل الإصدار.
- الالتزام بجعل نماذج الأساس المستقبلية متاحة للوكالات الحكومية الأمريكية للاختبار قبل النشر.
- ممارسات المراقبة بعد الإصدار والدروس المستفادة من النماذج المنشورة.
- خطط للإصدار العام لتقييمات الأثر الرجعي على النماذج المستخدمة.
- توثيق بشأن الوفاء بالتزامات السلامة والأمن الطوعية لإدارة بايدن-هاريس.
يتناول استفسار أعضاء مجلس الشيوخ الخلافات الأخيرة المحيطة بشركة OpenAI، بما في ذلك تقارير عن نزاعات داخلية حول ممارسات السلامة وانتهاكات الأمن السيبراني المزعومة. ويسألون على وجه التحديد ما إذا كانت شركة OpenAI “ستلتزم بإزالة أي أحكام أخرى من اتفاقيات التوظيف التي يمكن استخدامها لمعاقبة الموظفين الذين يثيرون مخاوف علنية بشأن ممارسات الشركة”.
يأتي هذا التدقيق من جانب الكونجرس في وقت يتزايد فيه الجدل حول تنظيم الذكاء الاصطناعي وتدابير السلامة. ويشير الخطاب إلى الالتزامات الطوعية التي قدمتها شركات الذكاء الاصطناعي الرائدة للبيت الأبيض العام الماضي، ووصفها بأنها “خطوة مهمة نحو بناء هذه الثقة” في سلامة وأمن الذكاء الاصطناعي.
قد تكون كامالا هاريس هي الرئيسة القادمة للولايات المتحدة بعد الانتخابات التي ستُعقد في وقت لاحق من هذا العام. وفي قمة سلامة الذكاء الاصطناعي التي عُقدت في المملكة المتحدة العام الماضي، قالت هاريس: “دعونا نكون واضحين، هناك تهديدات إضافية تتطلب منا أيضًا التحرك. تهديدات تسبب الضرر حاليًا، والتي يشعر بها كثير من الناس أيضًا بأنها وجودية… عندما لا يستطيع الناس في جميع أنحاء العالم التمييز بين الحقيقة والخيال بسبب سيل من الأساطير والمعلومات المضللة المدعومة بالذكاء الاصطناعي”.
علقت تشيلسي ألفز، المستشارة في UNMiss، قائلة: “إن نهج كامالا هاريس في التعامل مع الذكاء الاصطناعي وتنظيم التكنولوجيا الكبرى يأتي في الوقت المناسب وهو بالغ الأهمية مع دخولها السباق الرئاسي. ويمكن لسياساتها أن تضع معايير جديدة لكيفية التعامل مع تعقيدات التكنولوجيا الحديثة والخصوصية الفردية”.
ويمكن أن يكون لرد OpenAI على هذه الاستفسارات آثار كبيرة على مستقبل حوكمة الذكاء الاصطناعي والعلاقة بين شركات التكنولوجيا وهيئات الرقابة الحكومية.
(تصوير دارين هالستيد)
أنظر أيضا: تكشف OpenResearch عن التأثيرات المحتملة للدخل الأساسي الشامل
هل تريد أن تتعلم المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ تعرف على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. يقام هذا الحدث الشامل بالتزامن مع فعاليات رائدة أخرى بما في ذلك مؤتمر الأتمتة الذكية، وBlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابة.
استكشف الأحداث والندوات عبر الإنترنت الأخرى المتعلقة بتكنولوجيا المؤسسات والتي تدعمها TechForge هنا.