“إن PCWorld في رحلة للتعمق في المعلومات التي يتردد صداها مع القراء وتخلق نسيجًا متعدد الأوجه لنقل مشهد من الإثراء العميق.” قد يبدو هذا الهراء وكأنه تم إنشاؤه بواسطة الذكاء الاصطناعي، لكنه في الواقع كتبه إنسان سمين – أنت حقًا.
الحقيقة هي أنه من الصعب معرفة ما إذا كان جزء معين من النص تم إنشاؤه بواسطة الذكاء الاصطناعي أم أنه مكتوب بالفعل بواسطة الإنسان. وتأمل شركة جوجل في تسهيل اكتشافها من خلال فتح المصدر المفتوح لأداتها البرمجية الجديدة.
تطلق عليها Google اسم SynthID، وهي طريقة “تضع العلامات المائية وتحدد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي”. أعلنت الشركة، التي كانت تقتصر في السابق على أنظمة إنشاء اللغات والصور الخاصة بشركة Google، أنه سيتم إصدار SynthID كرمز مفتوح المصدر يمكن تطبيقه على إعدادات إنشاء نص أخرى تعمل بالذكاء الاصطناعي أيضًا. (إذا كنت أكثر معرفة بالعلوم العلمية مني، فيمكنك الاطلاع على جميع التفاصيل في الموقع المرموق طبيعة مجلة.)
لكن من وجهة نظر الشخص العادي – على الأقل إلى الدرجة التي يستطيع هذا الشخص العادي فهمها فعليًا – يخفي SynthID أنماطًا محددة في الصور والنصوص التي تكون بشكل عام دقيقة للغاية بحيث لا يمكن للبشر اكتشافها، مع مخطط لاكتشافها عند اختبارها.
يمكن لـ SynthID “تشفير علامة مائية في نص تم إنشاؤه بواسطة الذكاء الاصطناعي بطريقة تساعدك على تحديد ما إذا كان النص قد تم إنشاؤه من LLM الخاص بك دون التأثير على كيفية عمل LLM الأساسي أو التأثير سلبًا على جودة التوليد”، وفقًا لما جاء في منشور على التعلم الآلي مفتوح المصدر. قاعدة بيانات تعانق الوجه.
والخبر السار هو أن Google تقول أنه يمكن دمج هذه العلامات المائية مع أي أداة لإنشاء نص تعمل بالذكاء الاصطناعي تقريبًا. الخبر السيئ هو أن اكتشاف العلامات المائية في الواقع لا يزال أمرًا لا يمكن تثبيته.
على الرغم من أن العلامات المائية SynthID يمكنها النجاة من بعض الحيل الأساسية المستخدمة للالتفاف على الاكتشاف التلقائي – مثل تبادل الكلمات “لا تسميها سرقة أدبية” – إلا أنها يمكن أن تشير فقط إلى وجود علامات مائية بدرجات متفاوتة من اليقين، وهذا اليقين يمضي قدمًا تنخفض عند تطبيقها على “الاستجابات الواقعية”، وهي بعض من أهم الاستخدامات وأكثرها إشكالية للنص التوليدي، وعندما تخضع مجموعات كبيرة من النص للترجمة الآلية أو عمليات إعادة الكتابة الأخرى.
تقول Google: “لم يتم تصميم نص SynthID لمنع الخصوم المتحمسين بشكل مباشر من التسبب في الضرر”. (وبصراحة، أعتقد أنه حتى لو كان جوجل ملك قدمت علاجًا سحريًا ضد المعلومات الخاطئة التي تنتجها LLM، وستكون مترددة في تأطيرها على هذا النحو لأسباب تتعلق بالمسؤولية.) كما يتطلب أيضًا دمج نظام العلامة المائية في أداة إنشاء النص قبل إنه مستخدم بالفعل، لذلك لا يوجد ما يمنع أي شخص من اختيار عدم القيام بذلك ببساطة، كما تفعل الجهات الفاعلة الحكومية الخبيثة أو حتى الأدوات “المجانية” بشكل أكثر وضوحًا مثل Grok الخاص بـ xAI.
ويجب أن أشير إلى أن جوجل ليست اجتماعية تمامًا هنا. وبينما تقوم الشركة بدفع أدوات الذكاء الاصطناعي الخاصة بها إلى كل من المستهلكين والشركات، فإن منتج البحث الأساسي الخاص بها معرض للخطر من شبكة الويب التي يبدو أنها تمتلئ بسرعة بالنصوص والصور التي يتم إنشاؤها تلقائيًا. قد تختار منافسة Google، مثل OpenAI، عدم استخدام هذه الأنواع من الأدوات لمجرد ممارسة الأعمال التجارية، على أمل إنشاء معيار خاص بها لدفع السوق نحو منتجاتها الخاصة.