تدرب سلاك نماذج التعلم الآلي على رسائل المستخدم والملفات والمحتويات الأخرى دون إذن صريح.
وتستخدم المنصة بياناتك الخاصة افتراضيًا، ويجب عليك إلغاء الاشتراك في التدريب من خلال مطالبة مسؤول الموارد البشرية أو تكنولوجيا المعلومات في مؤسستك بإرسال بريد إلكتروني إلى الشركة لمطالبتها بالتوقف، ولا يمكنك فعل ذلك بنفسك.
واكتشف كوري كوين، أحد المسؤولين التنفيذيين في DuckBill Group، هذه السياسة في مبادئ خصوصية سلاك ونشر عنها عبر إكس.
وتقول السياسة ما يلي: “من أجل تطوير نماذج الذكاء الاصطناعي وتعلم الآلة، تحلل أنظمتنا بيانات العميل، مثل الرسائل والمحتوى والملفات، المقدمة إلى سلاك بالإضافة إلى المعلومات الأخرى، ويشمل ذلك معلومات الاستخدام، كما هو محدد في سياسة الخصوصية وفي اتفاقية العميل”.
ووفقًا لسياسة الخصوصية، فإنه من أجل إلغاء الاشتراك يجب مطالبة مالكي مؤسستك أو مساحة العمل أو المالك الأساسي بالاتصال بفريق تجربة عملاء سلاك باستخدام عنوان مساحة العمل أو المؤسسة، ونعالج طلبك ونرد بمجرد اكتمال عملية إلغاء الاشتراك.
وردت الشركة على تغريدة كوين بالقول: “لدى سلاك نماذج للتعلم الآلي على مستوى المنصة لأشياء، مثل توصيات القنوات والرموز التعبيرية ونتائج البحث. يمكن للعملاء استبعاد بياناتهم من المساعدة في تدريب نماذج تعلم الآلة”.
ومن غير الواضح منذ متى عدلت الشركة المملوكة لشركة Salesforce سياسة الخصوصية.
وتزيد التناقضات في سياسات خصوصية سلاك الارتباك، إذ ينص أحد الأقسام على أن سلاك لا تستطيع الوصول إلى المحتوى الأساسي عند تطوير نماذج التعلم الآلي أو تحليل بيانات العميل بطريقة أخرى، إذ لديها إجراءات تقنية عديدة تمنع حدوث ذلك.
ويبدو أن سياسة تدريب نماذج التعلم الآلي تتعارض مع هذا القسم، مما يترك مجالًا كبيرًا للارتباك.
وتقول صفحة تسويق أدوات الذكاء الاصطناعي التوليدي: “لا نستخدم بياناتك لتدريب نماذج الذكاء الاصطناعي. كل شيء يعمل عبر البنية التحتية الآمنة للمنصة، ويلبي معايير الامتثال نفسها التي تطبقها سلاك”.
وفي هذه الحالة، تتحدث الشركة عن أدوات الذكاء الاصطناعي التوليدي المتميزة المنفصلة عن نماذج التعلم الآلي التي تدربها على البيانات دون إذن صريح.
وتعد الإيحاء بأن جميع بياناتك آمنة من تدريب الذكاء الاصطناعي بمنزلة تضليل في الوقت الذي تنتقي فيه الشركة نماذج الذكاء الاصطناعي التي يغطيها هذا البيان.