ليس هناك من ينكر أن ChatGPT وغيرها من الدردشة من الذكاء الاصطناعي يصنعون رفاقًا مثيرين للدردشة يمكنهم التحدث معك في أي شيء تقريبًا.
يمكن أن تكون صلاحياتهم للمحادثة مقنعة للغاية أيضًا ؛ إذا جعلك تشعر بالأمان تجاه مشاركة تفاصيلك الشخصية ، فأنت لست وحدك. لكن – Newsflash! – أنت لا تتحدث إلى محمصةك. يمكن تخزين أي شيء تخبره على chatbot AI على خادم وإعادة الظهور لاحقًا ، وهي حقيقة تجعلها محفوفة بالمخاطر بطبيعتها.
لماذا chatbots محفوفة بالمخاطر؟
تنبع المشكلة من كيفية استخدام الشركات التي تدير نماذج لغوية كبيرة (LLMS) ودردشة الدردشة المرتبطة بها بياناتك الشخصية – بشكل أساسي ، لتدريب روبوتات أفضل.
خذ الفيلم Terminator 2: يوم الحكم كمثال على كيفية تعلم LLM. في الفيلم ، يعلم القائد المستقبلي للمقاومة الإنسانية ضد Skynet ، الطفل جون كونور ، المنهي ، الذي يلعبه أرنولد شوارزنيجر ، شعارات شخصية مثل “Hasta la Vista Baby” في محاولة لجعلها أكثر إنسانية.
يكفي القول ، إنه يتعلم تلك العبارات ويستخدمها في أكثر الأوقات غير المقصودة – وهو نوع من المضحك.
أقل مضحكة هي الطريقة التي يتم بها حصاد بياناتك واستخدامها من قبل الشركات لتحديث وتعليم نماذج الذكاء الاصطناعى الخاصة بها لتكون أكثر إنسانية.
تحدد الشروط والأحكام الخاصة بـ Openai حقها في القيام بذلك عند استخدام النظام الأساسي الخاص به. ينص على: “قد نستخدم البيانات التي توفرها لنا لتحسين نماذجنا.” هذا هو السبب في قيام ChatGpt بتسجيل كل شيء – نعم ، كل شيء – تقوله. هذا هو ، ما لم تستفيد من ميزة الخصوصية الجديدة في chatbot والتي تتيح لك تبديل إعداد لمنع حفظ سجل الدردشة الخاص بك.
إذا لم تفعل ذلك ، فإن تفاصيل مثل المعلومات المالية أو كلمات المرور أو عنوان المنزل أو رقم الهاتف أو ما أكلته لتناول الإفطار هي لعبة عادلة – إذا شاركت هذه التفاصيل. كما أنه يخزن أي ملفات تقوم بتحميلها وأي ملاحظات تقدمها.
تنص TS & CS على ChatGPT أيضًا على أن chatbot قد “تجميع أو إلغاء تحديد المعلومات الشخصية واستخدام المعلومات المجمعة لتحليل فعالية خدماتنا.” إنها إضافة صغيرة ، لكنها تفتح احتمال أن يتم الوصول إلى شيء ما تعلمه Chatbot لاحقًا من قبل الجمهور – وهو فكرة مقلقة بالفعل.
لماذا يجب أن تهتم؟
لكي نكون منصفين ، من غير المرجح أن تعتزم أي شركة تدير chatbot منظمة العفو الدولية إساءة استخدام المعلومات الشخصية التي يخزنونها. في السنوات الأخيرة ، أصدرت Openai بيانات تهدف إلى طمأنة مستخدمي ChatGPT حول جمع البيانات الشخصية واستخدامها.
على سبيل المثال ، في فبراير من هذا العام عندما اتهمته هيئة حماية البيانات في إيطاليا (DPA) بأحكام الاختراق الواردة في لوائح حماية البيانات العامة للاتحاد الأوروبي (GDPR) ، أخبر Openai بي بي سي: “نريد أن نتعرف على الذكاء الاصطناعي حول العالم ليس عن الأفراد العاديين. “
ثم هذا: “نعمل بنشاط على تقليل البيانات الشخصية في تدريب أنظمتنا مثل ChatGPT ، والتي ترفض أيضًا طلبات المعلومات الخاصة أو الحساسة عن الأشخاص.”
قد يكون هذا صحيحًا ، لكنه لا يضمن أن بيانات المستخدم آمنة من الانتهاكات. حدث أحد هذه الانتهاكات في مايو 2023 ، حيث استغل المتسللون ثغرة أمنية في مكتبة Redis Chatgpt ، مما يتيح لهم الوصول إلى البيانات الشخصية المخزنة من تاريخ الدردشة.
تضمنت المعلومات الشخصية التي تم تسريبها أسماء ، وأرقام الضمان الاجتماعي ، وعناوين الوظائف ، وعناوين البريد الإلكتروني ، وأرقام الهواتف ، وحتى ملفات تعريف الوسائط الاجتماعية. استجاب Openai من خلال إصلاح الضعف ، ولكن لم يكن هناك سوى عزاء قليل على حوالي 101000 مستخدم تم سرقة بياناتهم بالفعل.
وليس فقط الأفراد الذين يعانون من مشاكل الخصوصية مع AI chatbots أيضا. في الواقع ، تتدافع الشركات أيضًا للحفاظ على غطاء على بيانات الشركة السرية وسط تسريبات بيانات بارزة بارزة. اكتشف Samsung أن أحد هذه التسرب عندما وجد أن مهندسيها قد قاموا بتحميل شفرة المصدر الحساسة عن طريق الخطأ إلى ChatGPT.
رداً على ذلك ، في مايو 2023 ، حظرت الشركة استخدام chatgpt وغيرها من الدردشة من الذكاء الاصطناعي من استخدامها لأغراض العمل. منذ حذو شركات مثل بنك أوف أمريكا وسيتي جروب و JPMorgan.
الوعي ينمو ولكنه الأيام الأولى
في الآونة الأخيرة ، كان هناك وعي متزايد بمخاطر chatbots من الذكاء الاصطناعي على مستوى الحكومة والصناعة ، وهو علامة واعدة لتشديد أمن البيانات.
حدثت إحدى خطوات كبيرة إلى الأمام في 30 أكتوبر من العام الماضي ، عندما وقع الرئيس الأمريكي جو بايدن على أمر تنفيذي بشأن التنمية الآمنة والآمنة والجديرة بالثقة واستخدام الذكاء الاصطناعي – وهي وثيقة تحدد المبادئ الرئيسية التي تحكم استخدام الذكاء الاصطناعي في الولايات المتحدة
تنص إحدى النقاط ذات الأولوية على أن “أنظمة الذكاء الاصطناعى يجب أن تحترم الخصوصية وحماية البيانات الشخصية”. بالضبط كيف يتم تنفيذ ذلك ، على الرغم من ذلك ، لم يتم رؤيته بعد ويمكن أن يكون مفتوحًا للتفسير من قبل شركات الذكاء الاصطناعي.
على عكس هذه النقطة هو حقيقة أنه لا يوجد قانون واضح في الولايات المتحدة يوضح أن تدريب الذكاء الاصطناعي على البيانات دون موافقة المالك هو أي نوع من انتهاك حقوق الطبع والنشر. بدلاً من ذلك ، يمكن اعتباره استخدامًا عادلًا – مما يعني أنه لا يوجد شيء قوي في مكانه لحماية حقوق المستهلكين.
حتى نحصل على شيء أكثر ثباتًا ، لا يزال الأفراد أفضل خط دفاع لدينا ببساطة لا يتجاهلون. من خلال التعامل مع chatbot من الذكاء الاصطناعي مثل الخوارزمية ، فهذا بدلاً من الصديق الموثوق به ، بغض النظر عن مدى ثباتك على تصفيفة الشعر أو اختيار الملابس ، يمكنك على الأقل الحفاظ على غطاء على ما تعرفه عنك من نهايتك.