لقد استحوذ الذكاء الذي تعرضه روبوتات الدردشة المنتجة للذكاء الاصطناعي مثل ChatGPT من OpenAI على خيال الأفراد والشركات، وأصبح الذكاء الاصطناعي فجأة المجال الأكثر إثارة للابتكار التكنولوجي.
لقد تم الاعتراف بالذكاء الاصطناعي باعتباره مغيرًا لقواعد اللعبة، مع إمكانية تغيير العديد من جوانب حياتنا. من الطب الشخصي إلى المركبات ذاتية القيادة، ومن الاستثمارات الآلية إلى الأصول الرقمية، تبدو الإمكانيات التي يتيحها الذكاء الاصطناعي لا نهاية لها.
ولكن على الرغم من التحول الذي سيحققه الذكاء الاصطناعي، إلا أن هناك الكثير من المخاطر التي تفرضها هذه التكنولوجيا الجديدة. في حين أن المخاوف بشأن نظام ذكاء اصطناعي خبيث على غرار Skynet في غير محلها، فإن مخاطر مركزية الذكاء الاصطناعي ليست كذلك. ومع مضي شركات مثل مايكروسوفت وجوجل وإنفيديا قدما في سعيها إلى تحقيق الذكاء الاصطناعي، أصبحت المخاوف بشأن تركيز السلطة في أيدي عدد قليل من اللاعبين المركزيين أكثر وضوحا.
لماذا يجب أن نقلق بشأن الذكاء الاصطناعي اللامركزي؟
قوة احتكارية
القضية الأكثر إلحاحا الناشئة عن الذكاء الاصطناعي المركزي هي احتمال قيام عدد قليل من عمالقة التكنولوجيا بالسيطرة الاحتكارية على الصناعة. لقد اكتسب عمالقة التكنولوجيا الكبار بالفعل حصة سوقية كبيرة جدًا في مجال الذكاء الاصطناعي، مما يمنحهم امتلاك كميات هائلة من البيانات. كما أنهم يسيطرون على البنية التحتية التي تعمل عليها أنظمة الذكاء الاصطناعي، مما يمكنهم من خنق منافسيهم، وتقييد الابتكار، وإدامة عدم المساواة الاقتصادية.
ومن خلال احتكار تطوير الذكاء الاصطناعي، من المرجح أن تتمتع هذه الشركات بنفوذ غير عادل على الأطر التنظيمية، والتي يمكنها استغلالها لصالحها. وهذا يعني أن الشركات الناشئة الصغيرة، التي تفتقر إلى الموارد الهائلة التي تتمتع بها شركات التكنولوجيا الكبرى العملاقة، سوف تكافح من أجل مواكبة وتيرة الابتكار. ومن المؤكد تقريبًا أن أولئك الذين يبقون على قيد الحياة ويبدو أنهم قد يزدهرون سينتهي بهم الأمر إلى الاستحواذ عليهم، مما يزيد من تركيز السلطة في أيدي القلة. وستكون النتيجة تنوعًا أقل من حيث تطوير الذكاء الاصطناعي، وخيارات أقل للمستهلكين، وشروطًا أقل ملاءمة، مما يحد من حالات الاستخدام والفرص الاقتصادية التي وعد بها الذكاء الاصطناعي.
التحيز والتمييز
وبصرف النظر عن السيطرة الاحتكارية، هناك مخاوف حقيقية حول تحيز أنظمة الذكاء الاصطناعي، وستكتسب هذه المخاوف أهمية أكبر مع اعتماد المجتمع بشكل متزايد على الذكاء الاصطناعي.
وينبع الخطر من حقيقة أن المنظمات أصبحت أكثر اعتمادا على الأنظمة الآلية لاتخاذ القرارات في العديد من المجالات. ليس من غير المعتاد أن تستخدم شركة ما خوارزميات الذكاء الاصطناعي لتصفية المتقدمين للوظائف، على سبيل المثال، ويكمن الخطر في أن النظام المتحيز يمكن أن يستبعد بشكل غير عادل مجموعة فرعية من المرشحين على أساس عرقهم أو عمرهم أو موقعهم. يتم استخدام الذكاء الاصطناعي أيضًا من قبل شركات التأمين لتحديد أسعار الفائدة، ومن قبل شركات الخدمات المالية لتحديد ما إذا كان شخص ما مؤهلاً للحصول على قرض ومبلغ الفائدة الذي سيتعين عليه دفعه، ومن قبل جهات إنفاذ القانون لتحديد المجالات التي من المرجح أن تشهد معدلات أعلى. جريمة. وفي كل حالات الاستخدام هذه، فإن الآثار المحتملة لأنظمة الذكاء الاصطناعي المتحيزة مثيرة للقلق للغاية.
سواء أكان الأمر يتعلق بإنفاذ القانون الذي يستهدف مجتمعات الأقليات، أو ممارسات الإقراض التمييزية أو أي شيء آخر، فإن الذكاء الاصطناعي المركزي يمكن أن يؤدي إلى تفاقم عدم المساواة الاجتماعية وتمكين التمييز المنهجي.
الخصوصية والمراقبة
هناك خطر آخر تشكله أنظمة الذكاء الاصطناعي المركزية وهو الافتقار إلى حماية الخصوصية. عندما يسيطر عدد قليل من الشركات الكبرى على الغالبية العظمى من البيانات التي يولدها الذكاء الاصطناعي، فإنها تكتسب القدرة على تنفيذ مراقبة غير مسبوقة لمستخدميها. يمكن استخدام البيانات المتراكمة بواسطة منصات الذكاء الاصطناعي الأكثر هيمنة لرصد سلوك الفرد وتحليله والتنبؤ به بدقة لا تصدق، مما يؤدي إلى تآكل الخصوصية وزيادة احتمالية إساءة استخدام المعلومات.
إنه أمر مثير للقلق بشكل خاص في البلدان ذات الحكومات الاستبدادية، حيث يمكن استخدام البيانات كسلاح لإنشاء أدوات أكثر تطوراً لمراقبة المواطنين. ولكن حتى في المجتمعات الديمقراطية، هناك تهديد يفرضه زيادة المراقبة، كما تجسد في التسريبات التي كشف عنها إدوارد سنودن حول برنامج بريزم التابع لوكالة الأمن القومي الأميركية.
يمكن للشركات أيضًا إساءة استخدام بيانات المستهلك لزيادة أرباحها. بالإضافة إلى ذلك، عندما تقوم الكيانات المركزية بتجميع كميات هائلة من البيانات الحساسة، فإن هذا يجعلها أهدافًا أكثر ربحًا للقراصنة، مما يزيد من خطر تسرب البيانات.
المخاطر الأمنية
يمكن أيضًا أن تنشأ مشكلات تتعلق بالأمن القومي بسبب الذكاء الاصطناعي المركزي. على سبيل المثال، هناك مخاوف مبررة من إمكانية تسليح الدول لأنظمة الذكاء الاصطناعي، واستخدامها لشن حرب إلكترونية، والانخراط في التجسس، وتطوير أنظمة أسلحة جديدة. يمكن أن يصبح الذكاء الاصطناعي أداة رئيسية في الحروب المستقبلية، مما يزيد من المخاطر في الصراعات الجيوسياسية.
ويمكن أيضًا استهداف أنظمة الذكاء الاصطناعي نفسها. ومع زيادة اعتماد الدول على الذكاء الاصطناعي، فإن مثل هذه الأنظمة ستؤدي إلى إغراء الأهداف، لأنها تمثل نقاط فشل فردية واضحة. باستخدام نظام الذكاء الاصطناعي، يمكنك تعطيل تدفق حركة المرور بالكامل في المدن، وإزالة الشبكات الكهربائية، والمزيد.
أخلاق مهنية
الاهتمام الرئيسي الآخر للذكاء الاصطناعي المركزي هو الأخلاق. وذلك لأن حفنة من الشركات التي تتحكم في أنظمة الذكاء الاصطناعي من شأنها أن تكتسب تأثيرًا كبيرًا على المعايير والقيم الثقافية للمجتمع، وقد تعطي الأولوية في كثير من الأحيان للربح، مما يخلق المزيد من المخاوف الأخلاقية.
على سبيل المثال، يتم بالفعل استخدام خوارزميات الذكاء الاصطناعي على نطاق واسع من قبل منصات وسائل التواصل الاجتماعي لإدارة المحتوى، في محاولة لتحديد وتصفية المشاركات المسيئة. ومكمن القلق هو أن الخوارزميات، سواء عن طريق الصدفة أو عن قصد، قد تؤدي في نهاية المطاف إلى قمع حرية التعبير.
هناك بالفعل جدل حول مدى فعالية أنظمة الإشراف التي تعتمد على الذكاء الاصطناعي، حيث يتم حظر العديد من المنشورات التي تبدو غير ضارة أو إزالتها بواسطة الخوارزميات الآلية. وهذا يؤدي إلى تكهنات بأن مثل هذه الأنظمة لم يتم كسرها ولكن يتم التلاعب بها خلف الكواليس بناءً على السرد السياسي الذي تحاول المنصة الترويج له.
البديل؟ الذكاء الاصطناعي اللامركزي
إن الثقل المنطقي الوحيد للذكاء الاصطناعي المركزي هو تطوير أنظمة الذكاء الاصطناعي اللامركزية التي تضمن بقاء السيطرة على التكنولوجيا في أيدي الأغلبية، وليس القلة. ومن خلال القيام بذلك، يمكننا ضمان عدم حصول أي شركة أو كيان على تأثير كبير على اتجاه تطوير الذكاء الاصطناعي.
عندما تتم مشاركة تطوير وإدارة الذكاء الاصطناعي بين آلاف أو ملايين الكيانات، فإن تقدمه سيكون أكثر إنصافًا، مع قدر أكبر من التوافق مع احتياجات الفرد. وستكون النتيجة تطبيقات أكثر تنوعًا للذكاء الاصطناعي، مع مجموعة لا نهاية لها تقريبًا من النماذج التي تستخدمها أنظمة مختلفة، بدلاً من نماذج قليلة تهيمن على الصناعة.
ستعني أنظمة الذكاء الاصطناعي اللامركزية أيضًا وجود ضوابط وتوازنات ضد مخاطر المراقبة الجماعية والتلاعب بالبيانات. في حين يمكن استخدام الذكاء الاصطناعي المركزي كسلاح واستخدامه بطريقة تتعارض مع مصالح الكثيرين، فإن الذكاء الاصطناعي اللامركزي يتحوط ضد هذا النوع من القمع.
الميزة الرئيسية للذكاء الاصطناعي اللامركزي هي أن الجميع يتحكمون في تطور التكنولوجيا، مما يمنع أي كيان منفرد من اكتساب تأثير كبير على تطورها.
كيفية تحقيق اللامركزية في الذكاء الاصطناعي
يتضمن الذكاء الاصطناعي اللامركزي إعادة التفكير في الطبقات التي تشكل مجموعة تقنيات الذكاء الاصطناعي، بما في ذلك عناصر مثل البنية التحتية (موارد الحوسبة والشبكات)، والبيانات، والنماذج، والتدريب، والاستدلال، وعمليات الضبط الدقيق.
لا يمكننا أن نعلق آمالنا على النماذج مفتوحة المصدر إذا ظلت البنية التحتية الأساسية مركزية بالكامل من قبل عمالقة الحوسبة السحابية مثل أمازون ومايكروسوفت وجوجل، على سبيل المثال. نحن بحاجة إلى التأكد من أن كل جانب من جوانب الذكاء الاصطناعي لا مركزي
أفضل طريقة لتحقيق اللامركزية في مكدس الذكاء الاصطناعي هي تقسيمه إلى مكونات معيارية وإنشاء أسواق حولها بناءً على العرض والطلب. أحد الأمثلة على كيفية عمل ذلك هو Spheron، الذي أنشأ شبكة بنية تحتية مادية لامركزية (DePIN) يمكن لأي شخص المشاركة فيها.
مع DePIN من Spheron، يتمتع الجميع بالحرية في مشاركة موارد الحوسبة غير المستغلة، وتأجيرها بشكل أساسي لأولئك الذين يحتاجون إلى البنية التحتية لاستضافة تطبيقات الذكاء الاصطناعي الخاصة بهم. لذلك، يمكن لمصمم الجرافيك الذي يستخدم جهاز كمبيوتر محمولًا قويًا مزودًا بوحدة معالجة الرسومات التبرع بقدرة المعالجة إلى DePIN عندما لا يستخدمونها في عملهم الخاص، ويتم مكافأتهم بحوافز رمزية.
ما يعنيه هذا هو أن طبقة البنية التحتية للذكاء الاصطناعي تصبح موزعة على نطاق واسع ولا مركزية، مع عدم وجود مزود واحد يتحكم فيها. يتم تمكينه من خلال تقنية blockchain والعقود الذكية، التي توفر الشفافية والثبات والأتمتة.
يمكن أن يعمل DePIN أيضًا مع النماذج مفتوحة المصدر والبيانات الأساسية. على سبيل المثال، من الممكن مشاركة مجموعات بيانات التدريب على شبكة لا مركزية مثل Qubic، والتي ستضمن مكافأة مزود تلك البيانات في كل مرة يتم فيها الوصول إلى معلوماته بواسطة نظام الذكاء الاصطناعي.
ولضمان لا مركزية الوصول والأذونات، يتم توزيع كل جزء من حزمة التكنولوجيا بهذه الطريقة. ومع ذلك، فإن صناعة الذكاء الاصطناعي تكافح حاليًا لتوفير مثل هذا المستوى من اللامركزية. على الرغم من أن النماذج مفتوحة المصدر أصبحت شائعة للغاية بين مطوري الذكاء الاصطناعي، إلا أن معظم الناس يواصلون الاعتماد على الشبكات السحابية الخاصة، مما يعني أن عمليات التدريب والاستدلال مركزية بشكل كبير.
ولكن هناك حوافز قوية تدفع اللامركزية إلى الفوز. إحدى المزايا الأساسية لشبكات DePIN، على سبيل المثال، هي أنها تساعد على تقليل النفقات العامة. ونظرًا لأن شبكات مثل Spheron لا تعتمد على الوسطاء، فلن يحتاج المشاركون إلى إجراء أي دفعات أو مشاركة الإيرادات مع أطراف ثالثة. علاوة على ذلك، يمكنها أن تكون أكثر قدرة على المنافسة من حيث التسعير من الشركات التي تتعرض لضغوط لزيادة الربحية.
اللامركزية يجب أن تنتصر
يحمل مستقبل الذكاء الاصطناعي الكثير من الإمكانات، لكنه محفوف بالمخاطر أيضًا. في حين أن قدرات أنظمة الذكاء الاصطناعي تحسنت بشكل كبير في السنوات القليلة الماضية، فقد تم تحقيق معظم التقدم من قبل شركات قوية للغاية، مما أدى إلى زيادة تأثيرها على الصناعة. هناك ثمن يجب دفعه مقابل ذلك، وليس فقط من الناحية النقدية.
والبديل المعقول الوحيد هو تشجيع زيادة اعتماد الذكاء الاصطناعي اللامركزي، والذي يمكن أن يعزز إمكانية الوصول ويضمن قدرا أكبر من المرونة في الذكاء الاصطناعي. ومن خلال السماح للجميع بالمشاركة في تطوير الذكاء الاصطناعي على قدم المساواة، سنرى المزيد من التطبيقات المتنوعة والمثيرة للاهتمام والمفيدة التي يمكن أن تفيد الجميع على قدم المساواة، فضلاً عن وضع مستخدميها في المقام الأول.
سيتطلب بناء مستقبل لامركزي للذكاء الاصطناعي قدرًا كبيرًا من التنسيق والتعاون عبر كل طبقة من طبقات الذكاء الاصطناعي. ومن حسن الحظ أن هناك حوافز قوية تدفع المشاركين إلى القيام بذلك على وجه التحديد. ومرة أخرى، الحوافز ليست نقدية فقط.