كشفت شركة OpenAI يوم الأحد أن الشركة لديها طرق جديدة لمعرفة ما إذا كان المحتوى الذي تقرأه قد تم تأليفه بواسطة ChatGPT، على الرغم من أنها لم يتم إصدارها.
يبدو أن طريقة وضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي تعمل وفقًا لشركة OpenAI. ولكن من الواضح أنه يمكن خداعها بسهولة أيضًا. تدرس الشركة أيضًا كيف يمكن استخدام إصدار الأداة وتطبيقها لوصم المجموعات التي تستخدم الذكاء الاصطناعي كأداة كتابة فعلية، بما في ذلك أولئك الذين لا يستطيعون التحدث باللغة جيدًا بما يكفي لإنشاء محتوى مصقول. هناك طريقة ثانية، وهي البيانات الوصفية، تحمل وعدًا أكبر.
كشفت شركة OpenAI عن التطورات الجديدة في منشور مدونة محدث صدر يوم الأحد. أوضح المنشور الأصلي كيف انضمت OpenAI إلى تحالف مصدر المحتوى والأصالة في محاولة لتكون أكثر شفافية حول ما إذا كانت الصورة (وليس النص) تم إنشاؤها بواسطة الذكاء الاصطناعي، أو ما إذا كانت الصورة المخزنة قد تم تعديلها باستخدام الذكاء الاصطناعي. وقالت الشركة في التحديث إن هذه القدرة تتم إضافتها حاليًا إلى الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي من OpenAI.
الطريقة غير المعلنة هي على الأقل المحاولة الثانية لشركة OpenAI لاستخدام الذكاء الاصطناعي لتحديد النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي. في يناير 2023، أصدرت OpenAI برنامج Classifier. وحتى في ذلك الوقت، لم يحقق Classifier النجاح المطلوب: قالت الشركة آنذاك إن Classifier حدد 26% من النصوص التي ألفها الذكاء الاصطناعي على أنها نصوص بشرية، و9% من النصوص التي ألفها البشر على أنها نصوص تم إنشاؤها بواسطة الذكاء الاصطناعي. حددت خدمات منافسة، مثل TurnItIn، سيناريوهات أصدرت فيها أدواتها نتائج إيجابية كاذبة أيضًا.
لا يهم هذا حقًا في السيناريو الذي يتم فيه استخدام الذكاء الاصطناعي لصياغة بريد إلكتروني آلي من شركة تأمين، لإعلامك بأن الوقت قد حان لتحديث تأمين المستأجر الخاص بك. ومع ذلك، فهو أمر بالغ الأهمية في الأوساط الأكاديمية، حيث يجب على الطلاب – وليس الذكاء الاصطناعي – إثبات فهمهم للمادة التي يتم تدريسها. يمكن أن يكون الطرد من المدرسة لاستخدام الذكاء الاصطناعي – سواء تم تحديده بشكل صحيح أم لا – كارثيًا على الحياة المهنية.
ويأتي البحث الجديد الذي أجرته شركة OpenAI في الوقت المناسب، نظراً لأن العام الدراسي 2024-2025 أصبح على الأبواب.
لقد فكرت شركة OpenAI في استخدام العلامات المائية النصية، بنفس الطريقة التي يمكن بها وضع علامة “غير مرئية” على صورة. (لم توضح شركة OpenAI كيف يمكن القيام بذلك). يبدو أن شركة OpenAI متقدمة كثيرًا في استخدام البيانات الوصفية كأساس لأدوات الكشف عن الذكاء الاصطناعي. ولكن من الواضح أن النص الذي يحمل علامة مائية يمكن التغلب عليه بسهولة، إما باستخدام أداة ذكاء اصطناعي أخرى لإعادة صياغة النص أو إعادة كتابته، أو مطالبة ChatGPT بإضافة أحرف خاصة ثم حذفها.
نص البيانات الوصفيةومع ذلك، يبدو أن هذا الحل أكثر عملية. وفي هذه الحالة، سيكون تطبيق البيانات الوصفية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أقل عرضة للتلاعب من قبل المستخدم.
وقالت شركة OpenAI: “على عكس العلامات المائية، يتم توقيع البيانات الوصفية تشفيريًا، مما يعني عدم وجود نتائج إيجابية خاطئة. نتوقع أن تزداد أهمية هذا مع زيادة حجم النص الناتج. في حين أن العلامات المائية النصية لها معدل نتائج إيجابية خاطئة منخفض، فإن تطبيقها على كميات كبيرة من النصوص من شأنه أن يؤدي إلى عدد كبير من النتائج الإيجابية الخاطئة الإجمالية”.
وقالت شركة OpenAI إنها في “المراحل الأولى من الاستكشاف” فيما يتعلق بتطبيق البيانات الوصفية، وأنه من السابق لأوانه قياس مدى فعاليتها في الوقت الحالي.