تنضم OpenAI إلى اللجنة التوجيهية لتحالف مصدر المحتوى والأصالة (C2PA) وستقوم بدمج البيانات التعريفية للمعيار المفتوح في نماذج الذكاء الاصطناعي التوليدية لزيادة الشفافية حول المحتوى الذي تم إنشاؤه.
يسمح معيار C2PA باعتماد المحتوى الرقمي ببيانات وصفية تثبت أصوله، سواء تم إنشاؤه بالكامل بواسطة الذكاء الاصطناعي، أو تم تحريره باستخدام أدوات الذكاء الاصطناعي، أو تم التقاطه بشكل تقليدي. بدأت OpenAI بالفعل في إضافة بيانات تعريف C2PA إلى الصور من أحدث مخرجات نموذج DALL-E 3 في ChatGPT وOpenAI API. سيتم دمج البيانات الوصفية في نموذج توليد الفيديو القادم من OpenAI Sora عند إطلاقه على نطاق أوسع.
وأوضح OpenAI: “لا يزال بإمكان الأشخاص إنشاء محتوى خادع بدون هذه المعلومات (أو يمكنهم إزالتها)، لكن لا يمكنهم تزييف هذه المعلومات أو تغييرها بسهولة، مما يجعلها موردًا مهمًا لبناء الثقة”.
وتأتي هذه الخطوة وسط مخاوف متزايدة بشأن احتمالية قيام المحتوى الناتج عن الذكاء الاصطناعي بتضليل الناخبين قبل الانتخابات الكبرى في الولايات المتحدة والمملكة المتحدة ودول أخرى هذا العام. يمكن أن يساعد التحقق من صحة الوسائط التي أنشأها الذكاء الاصطناعي في مكافحة التزييف العميق والمحتويات الأخرى التي تم التلاعب بها والتي تستهدف حملات التضليل.
في حين أن التدابير التقنية تساعد، فإن OpenAI تعترف بأن تمكين أصالة المحتوى في الممارسة العملية يتطلب عملاً جماعيًا من المنصات والمبدعين ومعالجي المحتوى للاحتفاظ بالبيانات الوصفية للمستهلكين النهائيين.
بالإضافة إلى تكامل C2PA، تعمل OpenAI على تطوير أساليب مصدر جديدة مثل العلامات المائية المقاومة للتلاعب لمصنفات الكشف عن الصوت والصورة لتحديد العناصر المرئية التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
فتحت شركة OpenAI تطبيقات للوصول إلى مصنف الكشف عن الصور DALL-E 3 من خلال برنامج الوصول للباحثين الخاص بها. تتنبأ الأداة باحتمالية أن تكون الصورة قد نشأت من أحد نماذج OpenAI.
وقالت الشركة: “هدفنا هو تمكين البحث المستقل الذي يقيم فعالية المصنف، ويحلل تطبيقه في العالم الحقيقي، ويوضح الاعتبارات ذات الصلة بهذا الاستخدام، ويستكشف خصائص المحتوى الناتج عن الذكاء الاصطناعي”.
يُظهر الاختبار الداخلي دقة عالية في التمييز بين الصور غير المدعومة بالذكاء الاصطناعي ومرئيات DALL-E 3، مع تحديد حوالي 98% من صور DALL-E بشكل صحيح ووضع علامة غير صحيحة على أقل من 0.5% من الصور غير المدعومة بالذكاء الاصطناعي. ومع ذلك، فإن المصنف يواجه صعوبة أكبر في التمييز بين الصور التي تنتجها DALL-E ونماذج الذكاء الاصطناعي التوليدية الأخرى.
قامت OpenAI أيضًا بدمج العلامة المائية في النموذج الصوتي المخصص لـ Voice Engine، والذي يتم عرضه حاليًا بشكل محدود.
تعتقد الشركة أن زيادة اعتماد معايير المصدر سيؤدي إلى بيانات وصفية مصاحبة للمحتوى خلال دورة حياته الكاملة لملء “فجوة حاسمة في ممارسات أصالة المحتوى الرقمي”.
تنضم OpenAI إلى Microsoft لإطلاق صندوق مرونة مجتمعية بقيمة 2 مليون دولار لدعم تعليم الذكاء الاصطناعي وفهمه، بما في ذلك من خلال AARP، وIDEA الدولية، والشراكة في الذكاء الاصطناعي.
تقول OpenAI: “في حين أن الحلول التقنية مثل ما ورد أعلاه توفر لنا أدوات فعالة لدفاعاتنا، فإن تمكين أصالة المحتوى بشكل فعال في الممارسة العملية سيتطلب عملاً جماعيًا”.
“إن جهودنا المتعلقة بالمصدر هي مجرد جزء واحد من جهد أوسع في الصناعة – حيث تعمل العديد من مختبرات الأبحاث النظيرة وشركات الذكاء الاصطناعي المولدة لدينا أيضًا على تطوير الأبحاث في هذا المجال. ونحن نشيد بهذه المساعي، ويجب على الصناعة أن تتعاون وتتبادل الأفكار لتعزيز فهمنا ومواصلة تعزيز الشفافية عبر الإنترنت.
(تصوير مارك سيندرا مارتوريل)
أنظر أيضا: تشاك روس، SoftServe: تقديم حلول الذكاء الاصطناعي التحويلية بطريقة مسؤولة
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الضخمة من قادة الصناعة؟ اطلع على معرض الذكاء الاصطناعي والبيانات الضخمة الذي يقام في أمستردام وكاليفورنيا ولندن. ويقام هذا الحدث الشامل في موقع مشترك مع أحداث رائدة أخرى بما في ذلك مؤتمر الأتمتة الذكية، وBlockX، وأسبوع التحول الرقمي، ومعرض الأمن السيبراني والسحابي.
استكشف الأحداث والندوات عبر الإنترنت القادمة الأخرى المتعلقة بتكنولوجيا المؤسسات والمدعومة من TechForge هنا.