تم اكتشاف أمر مثير للقلق في أواخر الأسبوع الماضي وهذا يثير تساؤلات حول ما يمكن لبرنامج Google Gemini رؤيته وما لا يمكنه رؤيته. فقد وجد كيفن بانكستون، المستشار الأول في حوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا، أن برنامج Gemini كان قادرًا على تلخيص إقراراته الضريبية الخاصة التي شاهدها في مستندات Google ونشر نتائجه على X تلقائيًا.
لقد قمت للتو بسحب إقراراتي الضريبية في @جوجل المستندات – ودون أن يُطلب مني ذلك، لخصها برنامج Gemini. إذن… هل يقوم برنامج Gemini تلقائيًا باستهلاك حتى المستندات الخاصة التي أفتحها في Google Docs؟ يا إلهي، يا رفاق. لم أطلب ذلك. والآن عليّ البحث عن إعدادات جديدة لم يُخبرني بها أحد من قبل لإيقاف تشغيل هذه الهراء.
— كيفن بانكستون (@KevinBankston) 10 يوليو 2024
وهذا شيء لا ينبغي لمساعد الذكاء الاصطناعي أن يكون قادرًا على القيام به نظريًا دون إذن صريح من المستخدم. ولم يؤد بحثه عن إعداد الخصوصية الذي من شأنه تعطيل هذا السلوك إلا إلى المزيد من القضايا المثيرة للقلق حول ما تستوعبه أنظمة الذكاء الاصطناعي التوليدية وكيف.
في البداية، أمضى بانكستون 15 دقيقة في اختبار الذكاء الاصطناعي نفسه للحصول على اتجاهات لقائمة الإعدادات اللازمة، ولكن دون جدوى. لم يقدم له النظام سوى معلومات حول كيفية إدارة سجل محادثاته على جيميني. وعلاوة على ذلك، لم تحل أي من اقتراحات الإعدادات التي قدمها النظام مشكلة بانكستون بالفعل، وعندما وجد خيار تعطيل التلخيصات في Google Workspace، كان في قائمة مختلفة تمامًا عما أخبره به جيميني. ووفقًا للذكاء الاصطناعي نفسه، يجب أن تكون هذه الإعدادات متاحة علنًا للمستخدمين. لذا، نظرًا لأنها ليست كذلك، يزعم بانكستون أن الذكاء الاصطناعي إما “يهلوس (يكذب)” أو أن شيئًا ما داخل خوادم جوجل لا يعمل كما ينبغي.
بينما تم توجيهه لاحقًا نحو صفحة التزامات الخصوصية الخاصة بمساحة عمل Gemini، تساءل“ماذا لو كنت لا أزال لا أريده أن ينظر إلى مستنداتي دون أن أطلب منه ذلك؟ لم أطلب منه تلخيص ضرائبي، بل فعل ذلك فقط. يجب أن يكون الأمر متروكًا لي فيما إذا كانت المستندات الخاصة التي تطلب النموذج أم لا”. يلاحظ بانكستون أيضًا أن المستخدمين بحاجة إلى دفع اشتراك AI Premium بقيمة 20 دولارًا شهريًا للاستمتاع بالتزامات موسعة فيما يتعلق بكيفية حماية بياناتهم الشخصية.
هذه ليست المرة الأولى التي تتعرض فيها منتجات الذكاء الاصطناعي من جوجل لتسريب البيانات. في سبتمبر 2023، كشف سلف جيميني، بارد، عن طريق الخطأ عن جلسات الدردشة للمستخدمين في نتائج البحث العامة. حتى أن جوجل حذرت موظفيها من إدخال بيانات حساسة في برامج الدردشة الخاصة بها لمنع التسريبات غير المقصودة. كما تم رفع دعوى قضائية ضد الشركة في يوليو الماضي بسبب مزاعم تفيد بأن استخراجها من الإنترنت العام لبيانات تدريب الذكاء الاصطناعي ينتهك خصوصيتهم وحقوق الملكية.
وفي النهاية، تمكن بانكستون من حل المشكلة وتحديد جذورها. وكتب: “يبدو أنه إذا قمت بالنقر على زر جيميني لنوع معين من المستندات، فإنه يظل مفتوحًا كلما فتحت مستندًا آخر من نفس النوع – وبالتالي يستوعبه ويلخصه تلقائيًا”.
لذا، نظرًا لأنه قام بتلخيص ملف PDF مختلف باستخدام Gemini أثناء المحادثة، يبدو أن النظام قد منح نفسه حق الوصول إلى جميع ملفات PDF التي تم فتحها طوال الجلسة. وأشار أيضًا إلى أن “الأمر نفسه ينطبق على GDocs، فلم يكن يعمل في أي من مستنداتي، ثم قمت بتشغيله في أحد المستندات، والآن يقوم بتلخيص أي ملف أقوم بفتحه تلقائيًا”.
بغض النظر عن الأسباب وراء الخلل، فإن هذا النوع من السلوك من نظام الذكاء الاصطناعي له آثار كبيرة على خصوصية المستخدمين. وكما يزعم بانكستون، “كم عدد الأشخاص الذين أدخلوا عن غير قصد عددًا أكبر من المستندات الخاصة إلى جيميني لمجرد أنهم نقروا على نجمة الذكاء الاصطناعي الصغيرة تلك مرة واحدة في مستند واحد؟”
وفي حين أن الوصول إلى مستندات إضافية لتحسين ردودها من شأنه أن يساعد على تحسين الأداء، فإن القيام بذلك دون الشفافية وإذن أصحاب المحتوى لن يؤدي إلا إلى تآكل ثقة الجمهور الضئيلة بالفعل في الذكاء الاصطناعي.