ليس هناك من ينكر أن ChatGPT وغيره من روبوتات الدردشة المدعمة بالذكاء الاصطناعي يشكلون رفاقًا مثيرين للإعجاب في الدردشة يمكنهم التحدث معك في أي شيء تقريبًا.
يمكن أن تكون قدراتهم التخاطبية مقنعة للغاية أيضًا؛ إذا جعلوك تشعر بالأمان بشأن مشاركة بياناتك الشخصية، فأنت لست وحدك. لكن – خبر عاجل! – أنت لا تتحدث إلى محمصة الخبز الخاصة بك. يمكن تخزين أي شيء تقوله لروبوتات الدردشة المدعومة بالذكاء الاصطناعي على الخادم ثم ظهوره مرة أخرى لاحقًا، وهي حقيقة تجعلها محفوفة بالمخاطر بطبيعتها.
لماذا تعد روبوتات الدردشة محفوفة بالمخاطر؟
تنبع المشكلة من كيفية استخدام الشركات التي تدير نماذج اللغات الكبيرة (LLMs) وروبوتات الدردشة المرتبطة بها لبياناتك الشخصية – بشكل أساسي، لتدريب روبوتات أفضل.
خذ الفيلم المنهي 2: يوم القيامة كمثال لكيفية تعلم LLM. في الفيلم، يقوم قائد المقاومة الإنسانية المستقبلي ضد سكاي نت، الطفل جون كونور، بتعليم شخصية Terminator، التي يلعب دورها أرنولد شوارزنيجر، شعارات شخصية مثل “Hasta la vista baby” في محاولة لجعله أكثر إنسانية.
ويكفي أن نقول، إنه يتعلم تلك العبارات ويستخدمها في الأوقات غير المناسبة – وهو أمر مضحك نوعًا ما.
والأمر الأقل غرابة هو الطريقة التي يتم بها جمع بياناتك واستخدامها من قبل الشركات لتحديث وتعليم نماذج الذكاء الاصطناعي الخاصة بها لتكون أكثر إنسانية.
توضح شروط وأحكام OpenAI حقها في القيام بذلك عند استخدام منصتها. تنص على ما يلي: “قد نستخدم البيانات التي تقدمها لنا لتحسين نماذجنا.” وهذا هو السبب وراء تسجيل ChatGPT لكل شيء – نعم، كل شيء – تقوله له. وذلك ما لم تستخدم ميزة الخصوصية الجديدة لبرنامج الدردشة الآلية والتي تسمح لك بتبديل الإعداد لمنع حفظ سجل الدردشة الخاص بك.
إذا لم تفعل ذلك، فإن التفاصيل مثل معلوماتك المالية أو كلمات المرور أو عنوان المنزل أو رقم الهاتف أو ما تناولته على الإفطار تعتبر لعبة عادلة – إذا قمت بمشاركة هذه التفاصيل. كما أنه يقوم بتخزين أي ملفات تقوم بتحميلها وأي تعليقات تقدمها لها.
تنص شروط وأحكام ChatGPT أيضًا على أنه يجوز لبرنامج الدردشة الآلية “تجميع المعلومات الشخصية أو إلغاء تحديدها واستخدام المعلومات المجمعة لتحليل فعالية خدماتنا”. إنها إضافة صغيرة، لكنها تفتح إمكانية أن يصل الجمهور لاحقًا إلى شيء تعلمه برنامج الدردشة الآلي – وهي فكرة مثيرة للقلق بالفعل.
لماذا يجب أن تهتم؟
لكي نكون منصفين، فمن غير المرجح أن تكون أي شركة تدير روبوت دردشة يعمل بالذكاء الاصطناعي تنوي إساءة استخدام المعلومات الشخصية التي تخزنها. في السنوات الأخيرة، أصدرت OpenAI بيانات تهدف إلى طمأنة مستخدمي ChatGPT بشأن جمع البيانات الشخصية واستخدامها.
على سبيل المثال، في فبراير من هذا العام، عندما اتهمتها هيئة حماية البيانات الإيطالية (DPA) بانتهاك الأحكام الواردة في اللوائح العامة لحماية البيانات للاتحاد الأوروبي (GDPR)، قالت OpenAI لبي بي سي: “نريد أن يتعلم الذكاء الاصطناعي الخاص بنا عن العالم وليس عن الأفراد.”
ثم هذا: “نحن نعمل بنشاط لتقليل البيانات الشخصية في تدريب أنظمتنا مثل ChatGPT، الذي يرفض أيضًا طلبات الحصول على معلومات خاصة أو حساسة عن الأشخاص”.
قد يكون ذلك صحيحًا، لكنه لا يضمن أن بيانات المستخدم آمنة من الاختراقات. حدث أحد هذه الاختراقات في مايو 2023، حيث استغل المتسللون ثغرة أمنية في مكتبة Redis الخاصة بـ ChatGPT، مما منحهم الوصول إلى البيانات الشخصية المخزنة من سجلات الدردشة.
تضمنت المعلومات الشخصية المسربة الأسماء وأرقام الضمان الاجتماعي والمسميات الوظيفية وعناوين البريد الإلكتروني وأرقام الهواتف وحتى الملفات الشخصية على وسائل التواصل الاجتماعي. استجابت شركة OpenAI بإصلاح الثغرة الأمنية، لكن ذلك لم يكن عزاءً كبيرًا لحوالي 101000 مستخدم تمت سرقة بياناتهم بالفعل.
ولا يقتصر الأمر على الأفراد الذين يواجهون مشكلات تتعلق بالخصوصية مع روبوتات الدردشة المدعمة بالذكاء الاصطناعي أيضًا. وفي الواقع، تسعى الشركات أيضًا جاهدة للحفاظ على سرية بيانات الشركة وسط تسرب ملحوظ للبيانات رفيعة المستوى. اكتشفت شركة Samsung أحد هذه التسريبات عندما اكتشفت أن مهندسيها قاموا عن طريق الخطأ بتحميل كود مصدر حساس إلى ChatGPT.
ردًا على ذلك، في مايو 2023، حظرت الشركة استخدام ChatGPT وغيره من روبوتات الدردشة المولدة للذكاء الاصطناعي لأغراض العمل. ومنذ ذلك الحين حذت شركات مثل بنك أوف أمريكا، وسيتي جروب، وجي بي مورجان حذوها.
الوعي ينمو لكنه في أيامه الأولى
في الآونة الأخيرة، كان هناك وعي متزايد حول مخاطر روبوتات الدردشة المستندة إلى الذكاء الاصطناعي على مستوى الحكومة والصناعة، وهي علامة واعدة لتشديد أمن البيانات.
حدثت خطوة كبيرة للأمام في 30 أكتوبر من العام الماضي، عندما وقع الرئيس الأمريكي جو بايدن على أمر تنفيذي بشأن تطوير واستخدام الذكاء الاصطناعي بشكل آمن ومأمون وجدير بالثقة – وهي وثيقة تحدد المبادئ الأساسية التي تحكم استخدام الذكاء الاصطناعي في الولايات المتحدة.
وتنص إحدى النقاط ذات الأولوية على أن “أنظمة الذكاء الاصطناعي يجب أن تحترم الخصوصية وتحمي البيانات الشخصية”. ومع ذلك، لم يتم بعد رؤية كيفية تنفيذ ذلك بالضبط، ويمكن أن تكون مفتوحة للتفسير من قبل شركات الذكاء الاصطناعي.
ما يتعارض مع هذه النقطة هو حقيقة أنه لا يوجد حتى الآن قانون واضح في الولايات المتحدة ينص على أن تدريب الذكاء الاصطناعي على البيانات دون موافقة المالك يعد أي نوع من انتهاك حقوق الطبع والنشر. وبدلاً من ذلك، يمكن اعتباره استخدامًا عادلاً – مما يعني أنه لا يوجد شيء ثابت لحماية حقوق المستهلكين.
وإلى أن نحصل على شيء أكثر ثباتًا، يظل أفضل خط دفاع لدينا كأفراد هو عدم المبالغة في المشاركة. من خلال التعامل مع روبوت الدردشة المدعم بالذكاء الاصطناعي مثل الخوارزمية، بدلاً من التعامل مع صديق موثوق به، بغض النظر عن مدى مجاملته لك على تسريحة شعرك أو اختيارك للملابس، يمكنك على الأقل إخفاء ما يعرفه عنك من نهايتك.