إذا كنت تبني مع الذكاء الاصطناعى ، أو تحاول الدفاع عن الجانب الأقل لذيذًا من التكنولوجيا ، فقد أسقطت Meta للتو أدوات أمان Llama الجديدة.
تصل أدوات الأمان المحسنة لنماذج Llama AI إلى جانب الموارد الجديدة من META المصممة لمساعدة فرق الأمن السيبراني على تسخير الذكاء الاصطناعي للدفاع. كل ذلك جزء من دفاعهم لجعل التطوير واستخدام الذكاء الاصطناعي أكثر أمانًا لجميع المعنيين.
لدى المطورين الذين يعملون مع عائلة Llama of Models الآن بعض الأدوات التي تمت ترقيتها للعب بها. يمكنك الحصول على أحدث أدوات حماية Llama هذه مباشرة من صفحة حماية Llama الخاصة بـ Meta ، أو العثور عليها حيث يعيش العديد من المطورين: Hugging Face و Github.
أولاً هو Llama Guard 4. فكر في الأمر على أنه تطور لمرشح السلامة القابل للتخصيص في META ل AI. الأخبار الكبيرة هنا هي أنها الآن متعددة الوسائط حتى تتمكن من فهم قواعد السلامة وتطبيقها ليس فقط على النص ، ولكن أيضًا على الصور. هذا أمر بالغ الأهمية لأن تطبيقات الذكاء الاصطناعى تصبح أكثر مرئية. يتم أيضًا خبز هذا الإصدار الجديد في Llama API الجديد من Meta ، والذي هو حاليًا في معاينة محدودة.
ثم هناك llamafirewall. هذا جزء جديد من اللغز من Meta ، مصمم ليكون بمثابة مركز للتحكم في الأمان لأنظمة الذكاء الاصطناعي. يساعد في إدارة نماذج السلامة المختلفة التي تعمل معًا وتربط أدوات الحماية الأخرى في Meta. وظيفتها؟ لاكتشاف هذا النوع من المخاطر التي تبقي مطوري الذكاء الاصطناعى في الليل-أشياء مثل هجمات “الحقن السريع” الذكي المصممة لخداع الذكاء الاصطناعي ، أو توليد رمز مراوغة ، أو سلوك محفوف بالمخاطر من المكونات الإضافية من الذكاء الاصطناعي.
كما أعطت Meta حارس Llama Express. أصبح نموذج الحرس الرئيسي 2 (86 مترًا) أفضل الآن في استنشاق محاولات السجن المزعجة هذه والحقن الفوري. والأمر الأكثر إثارة للاهتمام ، ربما ، هو إدخال الحرس الوجه 2 22M.
الحرس المقدم 2 22M هو نسخة أصغر بكثير ، والأخير. يعتقد Meta أنها يمكن أن تخفض الكمون وحساب التكاليف بنسبة تصل إلى 75 ٪ مقارنة بالنموذج الأكبر ، دون التضحية بالكثير من قوة الكشف. لأي شخص يحتاج إلى ردود أسرع أو يعمل على ميزانيات أكثر تشددًا ، فهذه إضافة مرحب بها.
لكن ميتا لا تركز فقط على بناة الذكاء الاصطناعي ؛ إنهم ينظرون أيضًا إلى المدافعين عن طريق الإنترنت على الخطوط الأمامية للأمن الرقمي. لقد سمعوا الدعوات للحصول على أدوات أفضل من الذكاء الاصطناعي للمساعدة في مكافحة الهجمات الإلكترونية ، وهم يشاركون بعض التحديثات التي تهدف إلى ذلك.
تم تحديث مجموعة Cybersec Eval 4 Benchmark Suite. تساعد مجموعة الأدوات المفتوحة المصدر هذه المؤسسات على معرفة مدى جودة أنظمة الذكاء الاصطناعي بالفعل في مهام الأمن. يتضمن هذا الإصدار الأخير أداة جديدة:
- eval cybersoc: تم تصميم هذا الإطار بمساعدة من خبراء الأمن السيبراني ، ويقيس هذا الإطار على وجه التحديد مدى أداء AI في بيئة حقيقية لعمليات الأمن (SOC). إنه مصمم لإعطاء صورة أوضح لفعالية الذكاء الاصطناعي في اكتشاف التهديدات والاستجابة لها. المعيار نفسه سيأتي قريبا.
- Autopatchbench: يختبر هذا المعيار مدى جودة Llama و AIs الأخرى في العثور على ثقوب الأمان وتثبيتها تلقائيًا في التعليمات البرمجية قبل أن يتمكن الأشرار من استغلالها.
للمساعدة في الحصول على هذه الأنواع من الأدوات في أيدي أولئك الذين يحتاجون إليها ، تقوم Meta ببدء برنامج Defenders Llama. يبدو أن هذا يدور حول منح الشركات الشريكة والمطورين وصولًا خاصًا إلى مزيج من حلول الذكاء الاصطناعى-بعض المصادر المفتوحة ، وبعض الوصول المبكر ، وبعضها ربما تتجه نحو التحديات الأمنية المختلفة.
كجزء من هذا ، تقوم META بمشاركة أداة أمان الذكاء الاصطناعى التي يستخدمونها داخليًا: أداة تصنيف DOC الحساسة الآلية. إنه يصفع تلقائيًا تسميات الأمان على المستندات داخل المؤسسة. لماذا؟ لإيقاف المعلومات الحساسة من الخروج من الباب ، أو لمنع إطعامها بطريق الخطأ في نظام الذكاء الاصطناعي (كما هو الحال في إعدادات الخرقة) حيث يمكن تسربه.
إنهم يعالجون أيضًا مشكلة الصوت المزيف الذي تم إنشاؤه بواسطة الذكاء الاصطناعى ، والذي يستخدم بشكل متزايد في عمليات الاحتيال. تتم مشاركة كاشف الصوت الذي تم إنشاؤه LLAMA وكاشف العلامة المائية LLAMA مع الشركاء لمساعدتهم على اكتشاف الأصوات التي تم إنشاؤها بواسطة AI في مكالمات التصيد المحتملة أو محاولات الاحتيال. تصطف شركات مثل Zendesk و Bell Canada و AT&T بالفعل لدمجها.
أخيرًا ، أعطى Meta نظرة خاطفة على شيء يحتمل أن يكون ضخمًا لخصوصية المستخدم: المعالجة الخاصة. هذه تقنية جديدة تعمل عليها في WhatsApp. تتمثل الفكرة في السماح لمنظمة العفو الدولية بعمل أشياء مفيدة مثل تلخيص رسائلك غير المقروءة أو تساعدك على صياغة الردود ، ولكن بدون أن تتمكن Meta أو WhatsApp من قراءة محتوى تلك الرسائل.
يتم فتح Meta تمامًا حول الجانب الأمني ، حتى نشر نموذج التهديد الخاص بهم ودعوة الباحثين الأمنية إلى كزف الثقوب في الهندسة المعمارية قبل أن يتم بثها. إنها علامة أنهم يعرفون أنهم بحاجة إلى الحصول على جانب الخصوصية بشكل صحيح.
بشكل عام ، إنها مجموعة واسعة من إعلانات أمن الذكاء الاصطناعي من Meta. من الواضح أنهم يحاولون وضع العضلات الخطيرة وراء تأمين الذكاء الاصطناعى الذي يبنيونه ، مع إعطاء مجتمع التكنولوجيا الأوسع أدوات أفضل للبناء بأمان والدفاع بفعالية.
انظر أيضا: ارتفاع ينذر بالخطر في عمليات الاحتيال التي تعمل بالطاقة من الذكاء الاصطناعى: تكشف Microsoft 4 مليار دولار في الاحتيال المحبط
هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الكبيرة من قادة الصناعة؟ تحقق من AI و Big Data Expo الذي يقام في أمستردام ، كاليفورنيا ، ولندن. تم تحديد الحدث الشامل مع الأحداث الرائدة الأخرى بما في ذلك مؤتمر الأتمتة الذكي ، و blockx ، وأسبوع التحول الرقمي ، ومعرض Cyber Security & Cloud.
استكشاف أحداث وندوات الويب القادمة الأخرى التي تعمل بها TechForge هنا.