تزايد الاهتمام بتقنية الروبوتات البشرية، أو ما يُعرف بـ “الروبوتات الشبيهة بالبشر“، مع تطور قدراتها بشكل سريع. ومع ذلك، فإن هذه التطورات تثير تساؤلات مشروعة حول سلامة هذه الروبوتات والمخاطر المحتملة التي قد تشكلها. وقد تصاعدت هذه المخاوف مؤخرًا مع ظهور تقارير عن اختبارات لقوة الروبوتات وإصابات محتملة، بالإضافة إلى عروض جريئة لقدرات هذه الآلات.
ففي الشهر الماضي، تصدرت شركة Figure AI، العاملة في مجال تطوير الروبوتات الشبيهة بالبشر، عناوين الأخبار بعد رفع دعوى قضائية من قبل مهندس السلامة السابق فيها، روبرت غروندل. تزامن ذلك مع مقاطع فيديو أظهرت الرئيس التنفيذي لشركة صينية، Engine AI، وهو يتعرض للدفع من قبل أحد روبوتات الشركة من طراز T800.
الروبوتات الشبيهة بالبشر: هل تكشف الاختبارات عن مخاطر خفية؟
تزعم الدعوى القضائية التي قدمها غروندل أن الروبوت Figure 02 أظهر، خلال الاختبارات، قوة كافية لإحداث إصابات خطيرة، بما في ذلك كسر في الجمجمة البشرية. ويشير غروندل إلى أنه تم فصله من عمله بعد أن أعرب عن قلقه بشأن هذه النتائج، ورفض تجاهل هذه المخاطر المحتملة.
من جهتها، نفت Figure AI هذه الادعاءات بشدة، مؤكدة في بيان لـ CNBC أن غروندل طُرد بسبب “الأداء الضعيف” وليس بسبب مخاوف تتعلق بالسلامة. ولم يرد ممثلو Figure AI أو غروندل (من خلال محاميه) على طلبات التعليق الإضافية حتى الآن، وفقًا لما ذكرته التقارير.
في سياق متصل، أظهر مقطع فيديو متداول الرئيس التنفيذي لشركة Engine AI وهو يتعرض لدفع قوي من قبل روبوت T800. وقد اتخذ الرئيس التنفيذي احتياطات السلامة، مثل ارتداء واقيات، إلا أن قوة الدفع أثارت تساؤلات حول القدرات الحقيقية لهذه الروبوتات.
قياس قوة الروبوت: تحديات فنية ومعلوماتية
تكمن صعوبة تقييم قوة الروبوت في تحويل المواصفات الفنية، مثل عزم الدوران والقدرة الاستيعابية، إلى تقدير واقعي للضرر الذي يمكن أن تحدثه ضربة الروبوت. لا يمكن ببساطة ترجمة الأرقام إلى تأثيرها على جسم الإنسان، حيث يعتمد ذلك على عوامل متعددة، بما في ذلك سرعة الضربة، ونقطة الاصطدام، والبنية الجسدية للشخص.
يرى خبراء في مجال الذكاء الاصطناعي والروبوتات أن هذه الحوادث، بالإضافة إلى العروض الترويجية الجريئة، تبرز الحاجة إلى مزيد من الشفافية في اختبار وتقييم هذه التقنيات. يجب على الشركات المصنعة مشاركة معلومات مفصلة حول قدرات الروبوتات، وخاصة تلك المتعلقة بالقوة والسلامة، لتمكين الجمهور والجهات التنظيمية من فهم المخاطر المحتملة بشكل أفضل.
تأتي هذه الأحداث في وقت يشهد فيه قطاع الروبوتات الشبيهة بالبشر نموًا سريعًا، مع استثمارات كبيرة وتوقعات واسعة النطاق. تهدف هذه الروبوتات إلى أداء مجموعة متنوعة من المهام، بدءًا من العمل في المستودعات والمصانع وصولًا إلى تقديم المساعدة في المنازل ورعاية المسنين.
إلا أن تطوير هذه الروبوتات يثير معضلات أخلاقية وتنظيمية معقدة. فمن ناحية، هناك رغبة في تسريع الابتكار والاستفادة من إمكانات هذه التقنية. ومن ناحية أخرى، هناك حاجة ماسة إلى ضمان سلامة البشر وحماية حقوقهم. ويتطلب ذلك وضع معايير واضحة لاختبار وتقييم هذه الروبوتات، بالإضافة إلى تطوير قوانين ولوائح تحكم استخدامها.
الأتمتة والروبوتات الصناعية كانت بالفعل قيد التطوير لسنوات، لكن الروبوتات الشبيهة بالبشر تمثل نقلة نوعية في هذا المجال. فهي ليست مجرد آلات تؤدي مهامًا محددة، بل هي روبوتات مصممة للتفاعل مع البشر في بيئاتهم الطبيعية. وهذا يتطلب مستوى أعلى من السلامة والموثوقية.
في الوقت الحالي، لا توجد هيئات تنظيمية دولية أو وطنية تتولى مسؤولية الإشراف على تطوير واستخدام الروبوتات الشبيهة بالبشر. ومع ذلك، هناك جهود متزايدة من قبل الحكومات والمنظمات غير الحكومية لوضع إطار تنظيمي مناسب.
من المتوقع أن تستمر المناقشات حول سلامة الروبوتات الشبيهة بالبشر في التصاعد في الأشهر والسنوات المقبلة. وستلعب نتائج التحقيقات في الدعوى القضائية ضد Figure AI، بالإضافة إلى التطورات التقنية وتنظيمية، دورًا حاسمًا في تشكيل مستقبل هذه الصناعة. سيكون من المهم متابعة ردود فعل الجهات التنظيمية والتقدم المحرز في تطوير معايير السلامة، بالإضافة إلى أي معلومات إضافية قد تكشفها الشركات المصنعة حول قدرات روبوتاتها.
