الذكاء الاصطناعي لا يقتصر على إغراق وسائل التواصل الاجتماعي بالقمامة فحسب، بل يبدو أيضًا أنه يؤثر على مجتمع البرمجة مفتوحة المصدر. وبنفس الطريقة، تكافح أدوات التحقق من الحقائق مثل Community Notes الخاصة بـ X لدحض طوفان من المعلومات الخاطئة، ويأسف المساهمون في المشاريع مفتوحة المصدر على الوقت الضائع في تقييم وفضح تقارير الأخطاء التي تم إنشاؤها باستخدام أدوات إنشاء التعليمات البرمجية للذكاء الاصطناعي.
السجل ذكرت اليوم عن مثل هذه المخاوف التي أثارها سيث لارسون في منشور بالمدونة مؤخرًا. لارسون هو مطور أمني مقيم في مؤسسة Python Software Foundation، ويقول إنه لاحظ زيادة طفيفة في “التقارير الأمنية ذات الجودة المنخفضة للغاية والبريد العشوائي والمهلوسة لـ LLM للمشاريع مفتوحة المصدر”.
وأضاف لارسون: “تبدو هذه التقارير للوهلة الأولى مشروعة، وبالتالي تتطلب وقتا لدحضها”. من المحتمل أن يكون ذلك مشكلة كبيرة بالنسبة للمشاريع مفتوحة المصدر (مثل Python وWordPress وAndroid) التي تعمل على تشغيل جزء كبير من الإنترنت، لأنها غالبًا ما تتم صيانتها بواسطة مجموعات صغيرة من المساهمين غير مدفوعي الأجر. يمكن أن تكون الأخطاء المشروعة في مكتبات الأكواد المنتشرة في كل مكان خطيرة لأنها تحتوي على منطقة تأثير واسعة النطاق في حالة استغلالها. وقال لارسون إنه يرى فقط عددًا صغيرًا نسبيًا من التقارير غير المرغوب فيها الصادرة عن الذكاء الاصطناعي، لكن العدد آخذ في الازدياد.
انتقد مطور آخر، دانييل ستيرنبرغ، أحد مرسل الأخطاء لأنه أضاع وقته في تقرير يعتقد أنه تم إنشاؤه باستخدام الذكاء الاصطناعي:
لقد أرسلت ما يبدو أنه “تقرير” واضح عن خلل في الذكاء الاصطناعي حيث تقول إن هناك مشكلة أمنية، ربما لأن الذكاء الاصطناعي خدعك لتصديق ذلك. ثم تضيع وقتنا بعدم إخبارنا أن الذكاء الاصطناعي هو من فعل ذلك نيابةً عنك، ثم تواصل المناقشة بمزيد من الردود الهراء – والتي يبدو أنها تم إنشاؤها أيضًا بواسطة الذكاء الاصطناعي.
يعد إنشاء التعليمات البرمجية حالة استخدام شائعة بشكل متزايد لنماذج اللغات الكبيرة، على الرغم من أن العديد من المطورين ما زالوا في حيرة بشأن مدى فائدتها حقًا. يمكن لبرامج مثل GitHub Copilot أو منشئ الأكواد الخاص بـ ChatGPT أن تكون فعالة جدًا في إنتاج السقالات، وهو الكود الأساسي لبدء أي مشروع. يمكن أن تكون مفيدة أيضًا في العثور على وظائف في مكتبة برمجة قد لا يكون المطور على دراية بها.
ولكن كما هو الحال مع أي نموذج لغة، سوف يصابون بالهلوسة وينتجون تعليمات برمجية غير صحيحة. مولدات الأكواد هي أدوات احتمالية تخمن ما تريد كتابته بعد ذلك بناءً على الكود الذي قدمته لهم وما رأوه من قبل. لا يزال المطورون بحاجة إلى فهم لغة البرمجة التي يعملون بها بشكل أساسي ومعرفة ما يحاولون بنائه؛ بنفس الطريقة التي تحتاج بها المقالات المكتوبة بواسطة ChatGPT إلى المراجعة والتعديل يدويًا.
تقدم منصات مثل HackerOne مكافآت لتقارير الأخطاء الناجحة، مما قد يشجع بعض الأفراد على مطالبة ChatGPT بالبحث في قاعدة التعليمات البرمجية عن العيوب ثم إرسال الأخطاء الخاطئة التي ترجعها LLM.
لقد كانت الرسائل غير المرغوب فيها موجودة دائمًا على الإنترنت، ولكن الذكاء الاصطناعي يجعل توليدها أسهل بكثير. يبدو من الممكن أننا سنجد أنفسنا في موقف يتطلب استخدام المزيد من التكنولوجيا مثل اختبار CAPTCHA لشاشات تسجيل الدخول لمكافحة ذلك. وضع مؤسف ومضيعة كبيرة للوقت للجميع.