أوقفت شركة Superhuman، الشركة الأم لـ Grammarly، ميزة “مراجعة الخبراء” المثيرة للجدل بعد اكتشاف أن نظام الذكاء الاصطناعي استخدم أعمال كتاب وصحفيين منشورين لتقديم اقتراحات كتابة دون الحصول على موافقتهم. وقد أثار هذا الاستخدام غير المصرح به مخاوف بشأن حقوق الملكية الفكرية وأخلاقيات استخدام الذكاء الاصطناعي في أدوات الكتابة، مما دفع الشركة إلى اتخاذ إجراءات فورية. هذه القضية تسلط الضوء على أهمية الشفافية والحصول على الموافقة في تطوير تطبيقات Grammarly.
بدأت المشكلة في الظهور بعد إطلاق الميزة في أغسطس، حيث اعتمدت على نماذج لغوية كبيرة (LLM) تابعة لجهات خارجية لتقديم اقتراحات كتابة مستوحاة من أساليب كتاب مرموقين. ومع ذلك، تبين أن هؤلاء الخبراء لم يكونوا على علم بأن أعمالهم تُستخدم بهذه الطريقة، مما أثار غضبًا واسع النطاق في الأوساط الإعلامية والأدبية. وقد أدى ذلك إلى رد فعل عنيف على وسائل التواصل الاجتماعي ومطالبات بالتحقيق في ممارسات الشركة.
الجدل حول استخدام أسلوب الكتاب دون إذن في Grammarly
لم تقم Grammarly بالحصول على إذن صريح من الكتاب والصحفيين الذين تم استخدام أساليبهم كمراجع. بينما تقوم العديد من شركات الذكاء الاصطناعي بجمع البيانات من مصادر عامة على الإنترنت، إلا أن استخدام هوية الأفراد بشكل مباشر دون موافقتهم يعتبر تجاوزًا للحدود الأخلاقية. هذا النهج يختلف عن الممارسات الشائعة في جمع البيانات، حيث عادة ما يتم التركيز على المعلومات العامة دون ربطها بأفراد محددين.
بدأ رد الفعل العنيف بعد أن اكتشف رئيس تحرير موقع The Verge والعديد من موظفيه أن أسمائهم تُستخدم كمراجع للأسلوب داخل أداة Grammarly. وقد عبروا عن استيائهم الشديد من هذا الاستخدام غير المصرح به لأعمالهم. في البداية، قدمت Superhuman نموذجًا عبر البريد الإلكتروني للسماح للكتاب بإلغاء الاشتراك من هذه الميزة، لكن هذا الإجراء لم يكن كافيًا لتهدئة الغضب المتصاعد.
رد فعل الشركة وتعطيل الميزة
استجابةً للانتقادات، أعلنت Superhuman عن تعطيل ميزة مراجعة الخبراء بالكامل. صرح Ailian Gan، مدير إدارة المنتجات في Superhuman، بأن الشركة أدركت أنها أخطأت في تقدير الأمور وأنها ستتعامل مع الأمور بشكل مختلف في المستقبل. هذا الاعتراف بالخطأ يمثل خطوة مهمة نحو استعادة ثقة المستخدمين.
بالإضافة إلى ذلك، اعتذر الرئيس التنفيذي لشركة Superhuman، شيشير مهروترا، عبر منصة LinkedIn، وأوضح رؤية جديدة للمستقبل. واقترح نموذجًا يسمح للخبراء بالمشاركة طواعية في تطوير الأداة وبناء نموذج عمل حول مساهماتهم. يهدف هذا النموذج إلى تحقيق التوازن بين الاستفادة من خبرات الكتاب واحترام حقوقهم.
تداعيات القضية ومستقبل أدوات الكتابة بالذكاء الاصطناعي
على الرغم من الاعتذار وتعطيل الميزة، إلا أن الضرر قد وقع بالفعل. إن طلب العفو بدلاً من الحصول على الإذن المسبق يعتبر ممارسة غير مقبولة، خاصة عندما يتعلق الأمر بأعمال صحفيين وكتاب. تؤكد هذه القضية على الحاجة إلى وضع إطار قانوني وأخلاقي واضح لتنظيم استخدام الذكاء الاصطناعي في أدوات الكتابة والمحتوى.
تعتبر هذه الحادثة بمثابة تذكير بأهمية الشفافية والمساءلة في تطوير تطبيقات الذكاء الاصطناعي. يجب على الشركات التي تعتمد على نماذج لغوية كبيرة أن تضمن الحصول على الموافقة اللازمة من أصحاب الحقوق قبل استخدام أعمالهم. كما يجب عليها أن تكون مستعدة لتحمل المسؤولية عن أي انتهاكات محتملة لحقوق الملكية الفكرية.
تتجه Superhuman نحو استكشاف نموذج جديد يتيح للخبراء التحكم في كيفية استخدام معرفتهم وبناء نموذج عمل حولها. من المتوقع أن يتم الكشف عن تفاصيل هذا النموذج في الأشهر القادمة. في الوقت الحالي، من الضروري مراقبة التطورات في هذا المجال وتقييم تأثيرها على مستقبل أدوات الكتابة بالذكاء الاصطناعي، بالإضافة إلى أدوات التدقيق الإملائي والنحوي مثل التحقق من القواعد النحوية و تحسين الكتابة.
من المرجح أن تؤدي هذه القضية إلى زيادة التدقيق في ممارسات شركات الذكاء الاصطناعي وتأثيرها على حقوق الملكية الفكرية. من المتوقع أن تشهد الفترة القادمة نقاشات مكثفة حول الحاجة إلى وضع قوانين ولوائح جديدة لحماية حقوق الكتاب والمبدعين في عصر الذكاء الاصطناعي. ستكون هذه التطورات حاسمة في تحديد مستقبل صناعة المحتوى الرقمي.
