السماح للروبوت بالقتل دون إشراف بشري قد ينقد حياة الكثيرين
الدعوة إلى حظر الروبوتات القاتلة تتجاهل أن الجنود من البشر يمكنهم أن يرتكبوا أخطاء قاتلة. إذا كانت السيارات ذاتية القيادة ستنقذ الأرواح، فقد تتمكن الآلات المسلحة من ذلك أيضا.
في نوفمبر عقد اجتماع في مقر الأمم المتحدة في جنيف ناقش الروبوتات الذاتية المسلحة. وخلافا للطائرات العسكرية دون طيار (الدرون) التي يتحكم فيها عن بعد، ستقوم هذه الآلات الجديدة بتحديد أهداف معينة وشنِّ الهجوم عليها من غير تدخل بشري. وتأمل العديد من المجموعات، ومنها حملة إيقاف الروبوتات القاتلة، بأن يؤدي الإجتماع إلى المنع الدولي لمثل هذه الروبوتات. ولكن، على الرغم من أن الخيال العلمي مليء بالقصص الواعظة والتحذيرية حول ما سيحدث عندما توضع الأسلحة في الأيادي المعدنية الباردة للآلات، إلا أن الوضع لا يفسر ببساطة معادلة “الإنسان الطيب، والروبوتات الشريرة.”
لفهم السبب، علينا أن نسلط الضوء على ما يقوله الناس عن الأخلاقيات الكامنة خلف السيارات ذاتية القيادة، والتي يعتبرها المؤيدون وسيلة للحد من الحوداث. فإذا كانت حياتك أكثر أمانا في أيدي السيارة الآلية منها في أيدي السائق البشري، فهل ينطبق الأمر ذاته على المعدات العسكرية؟
ومن الواضح أن استبدال مقاتل بشري بروبوت يعتبر أكثر أمنا بالنسبة إلى هذا الشخص، ولكن يمكن للروبوتات المسلحة أن تقلل من إصابات المدنيين. فعلى سبيل المثال، على الفرقة التي تحاول إخلاء مبنى ما أن تتخذ قرارا فوريا حول ما إذا كان قاطن الغرفة شخص مسلحا أو مدنيا، وقد يؤدي أي تردد إلى موتهم جميعا. إلا أن الروبوت يستطيع انتظار التأكيد، أي إلى حين أن يبدأ الخصم بإطلاق النار.
ويمكن تطبيق المبدأ نفسه على الضربات الجوية. يمكن للنظام المستقل ذاتيا أن يحوم حول الهدف لعدة مرات حتى يتأكد من أنه قاعدة العدو بالفعل، ولكن الطيار الحقيقي يخاطر بالمرور حول الهدف مرة واحدة فقط. وفي كلتا حالتي الروبوت تكون الخسارة في الآلات بسبب الحذر الشديد، وليس إصابات.
وترى مجموعات حقوق الإنسان الآن ضرورة استخدام الأسلحة الموجهة بدقة لتفادي إصابات المدنيين، أما الأسلحة البسيطة غير الموجهة، فتعتبر مستهتِرة وطائشة. فهل هناك تبرير أخلاقي مشابه لتطوير الروبوتات المسلحة؟
يقول رونالد أركن Ronald Arkin عالم الروبوتيات من معهد جورجيا للتكنولوجيا Georgia Institute of Technology، والذي يشجع على تشريع الروبوتات المسلحة بدلا من منعها: “لا يمكننا ببساطة أن نقبل بالوضع الراهن بالنسبة إلى موت غير المقاتلين في الأحداث. علينا أن نطمح إلى الأفضل.”
تُشغَّل معظم أنظمة الأسلحة من قبل شخص مطَّلع على الوضع العام، مما يعني أن القرار النهائي في القتل لا يُحدَّد ذاتيا، ولكن هناك أسلحة ذات مدى تصرف أوسع، مثل صاروخ بريمستون المستخدم من قبل السلاح الجوي الملكي. ويستطيع المُشغِّل أن يحدد مربعا على الخريطة ويطلق دفعة من الصواريخ تقوم بالبحث عن دبابات في تلك المنطقة، وتضرب هذه الصواريخ الأهداف عندما تجدها أو تفجر نفسها بأمان وسلامة عوضا عن ذلك.
“لا يمكن للروبوتات أن تتفهم تعقيدات المواقف أو الفروق الدقيقة للسلوك الإنساني”
ويكون الحكم البشري في المواقف المشابهة عرضة للخطأ. ففي حادثة “نيران صديقة” قاتلة في عام 2003 حدَّد طياران أمريكيان مركباتٍ مسلحة بريطانية بالخطأ على أنها عراقية، على الرغم من الألواح البرتقالية التي توضّح أنها صديقة، إضافة إلى وجودها في منطقة “عدم الانخراط في قتال.”
ولذا، هل تستطيع الروبوتات أن تتخذ قرارات أفضل من البشر؟ ويقترح أركن أن الآلات لن تعاني الخطأَ الإدراكي الناجم عن “استكمال السيناريو،” الذي كان الملام في فاجعة اشتملت على خطوط جوية إيرانية مدنية في عام 1988. وذلك حين اتجهت الطائرة نحو سفينة حربية أمريكية، وذكر مشغلو الرادار أن الطائرة تنحدر لتقوم بالهجوم وعلى ذلك قاموا بقصفها، مما أدى إلى قتل جميع ركابها البالغ عددهم 290 شخصا. بعد ذلك أوضحت تحليلات تسجيل الرادار لاحقا أن الطائرة كانت آخذة بالصعود تدريجيا. ولكن مشغلي الرادار تخيلوا أنهم عرضة للهجوم وقاموا لا شعوريا بمطابقة الدليل على السيناريو، متجاهلين بذلك أي تفسير بديل.
ولكن تشير بوني دوشيري Bonnie Docherty -المحاضرة من كلية هارفارد للحقوق والباحثة في هيومان رايتس ووتش- إلى حدود الذكاء الاصطناعي وخاصة في مناطق الحروب المعقدة مثل العراق. وتقول: “لا يمكن للروبوتات أن تتفهم تعقيدات المواقف أو الفروق الدقيقة للسلوك الإنساني. ومن الصعب على الروبوتات أن تفرِّق بين الجنود والمدنيين.”
ارسلوا الدرونات Send in the drones
ولكن قد نضطر إلى أن نطلق العنان للروبوتات في وقت قريب على الرغم من معارضتنا. إذ يجري تصميم أنظمة العرقلة التكتيكية الجديدة ويطلق عليها أسماء مثل حامي الدرون DroneDefender ودرع الدرون DroneShield بغرض قطع الصلة بين المشغل والدرون، ويتزايد استخدامها على ساحة المعركة. كما أثبتت الدرونات التي تبرعت بها الولايات المتحدة لأوكرانيا عدم فائدتها بسبب أنظمة العرقلة الروسية. فإذا تعذّر التحكم عن بعد، فيجب على الأنظمة من دون طواقم بشرية أن تكون مستقلة تماما (انظر الإطار: جيش روسيا من الروبوتات)
غير أن أركن لديه حل أنسب من ذلك. وعوضا عن جعل الروبوتات تتبع الأوامر التي تراها مناسبة، يمكن تزويد الروبوتات المسلحة ببرنامج “التحكيم الأخلاقي” الذي يأخذ بعين الاعتبار القانون الدولي.
فعلى سبيل المثال، إذا لم يكن بالإمكان تحديد هدف ما كهدف مناسب للهجوم، فسيقوم التحكيم الأخلاقي بتوجيه الروبوت إلى اتخاذ إجراءات إضافية، مثل الاقتراب للتحقق من الأمر. وباستطاعته كذلك أن يمنع الهجوم تماما، إذا ما وُجد مدنيون في المنطقة مثلا.
يشير أركن إلى فيديو من العراق يُظهِر طاقم المروحية مستجيبن لأوامر تطلب إليهم أن يطلقوا النار ويقتلوا متمردا مصابا بجروح. وسيقوم الروبوت المزود بتحكيم أخلاقي برفض الطلب وبتوفير الأسباب القانونية وراء ذلك الرفض. خلافا للإنسان، لن يشعر الروبوت بضرورة التصرف المخالف للقانون من منطلق الرغبة بالانتقام أو من منطلق الخوف من السلطة. فقد تكون الروبوتات القاتلة أقل خطورة من المقاتلين البشر ذوي التاريخ الطويل من ارتكاب الجرائم الحربية البشعة. وكما هي الحال مع السيارات ذاتية القيادة، يمكن للآلات أن تتبع القوانين التي قد يميل البشر إلى خرقها.
لا تزال فكرة التحكيم الأخلاقي في مراحلها البدائية، ولكن أركن يعتقد أن التطورات المستقبلية في مجال الذكاء الاصطناعي قد تؤدي إلى تحقيق هذا الأمر على أرض الواقع. وبالنسبة إلى البعض، يعتبر الموضوع متعلقا بالأخلاقيات بشكل أكبر من كونه موضوعا متعلقا بالتقنية المتطلبة لتحقيقه.
تقول دوشيري: “تثير الأسلحة المستقلة تماما مجموعة من المخاوف التي لا تتعلق بالقدرة على التفرقة بين الأدوات المدنية والعسكرية. إذ إن إعطاء قرار الحياة والموت للآلات يتعدى عتبة أخلاقية معينة.”
ولكن السيارات المطروحة في السوق تعدت هذه العتبة، فمثلا هناك مركبات تيسلا التي باستطاعتها أن تغير مسارها من دون التدخل البشري. يقول باتريك لين Patrick Lin الفيلسوف من جامعة ولاية كاليفورنيا بوليتكنك California Polytechnic State University إن الموضوع يعكس ازدواجية المعايير لدى أولئك الذين يرغبون في منع الروبوتات القاتلة.
ويقول لين: “لا أعتقد أنني سمعت أي شخص يُطالب بتوفير قدرٍ من التحكم البشري في السيارات ذاتية القيادة. إذا كان هذا متطلبا أخلاقيا فعليا في الروبوتات القاتلة، فمن المنطقي أن يشمل الآلات الأخرى التي باستطاعتها القتل، مثل السيارات الروبوتية.”
ومن الواضح أن الروبوتات القاتلة صُمِّمت لكي تؤدي إلى الموت، بينما قد تؤدي السيارة الآلية إلى القتل عند وقوع حادث ما. ولكن لين يصر على أن هذه الميزة غير ذي أهمية.
يقول لين: “قد تؤدي حوادث السيارات الآلية إلى قتل أفراد أكثر من الروبوتات العسكرية، إذ إن السيارات الآلية ستكون أكثر وفرة. وإذا سمحنا للسيارات ذاتية القيادة بأن تتخذ قرارا بالحياة أو الموت، إذاً علينا أيضا أن نتقبل الروبوتات القاتلة، أو نرفض الاثنين معا.”
وتدرس سيدني ليفاين Sydney Levine من معهد ماساتشوستس للتكنولوجيا Massachusetts Institue of Technology القضايا الأخلاقية المتعلقة بالسيارات ذاتية القيادة، وهي بدورها ترى كذلك أوجه شبه متوازية. فهي تعتقد أن السياسات الأخلاقية للأسلحة المستقلة عليها أن تتبع النمطَ الذي حدَّده عملها على المركبات ذاتية القيادة.
تقول ليفاين: “نبدأ بسؤال سيكولوجي: كيف يرى الناسُ الأسلحةَ المستقلة وكيف يلقون اللوم والمسؤولية السببية والأخلاقية عليها؟”
كما تضيف إنه يتعين على الأجوبة أن تؤثر في السياسات. فعملها على السيارات ذاتية القيادة ألقى الضوءَ على معتقدات متعارضة: نرغب في السيارات -بشكل عام- أن تقلل الضرر، ولكن نود أن تقوم سيارتنا بحمياتنا عوضا عن حماية الآخرين. وقد يتضح أن الرأي العام نحو الروبوتات القاتلة متناقض كذلك.
“إذا سمحنا للسيارات ذاتية القيادة بأن تتخذ قرارا بالحياة أو الموت، إذاً علينا أيضا أن نتقبل الروبوتات القاتلة”
وهكذا، قد نرغب في إعادة النظر بمنع الروبوتات القاتلة. يقول أركن: “علينا أن نستعجل بعملية التنظيم ولكن المنع يعتبر سابقا لأوانه.” فقد يؤدي تسليح الآلات إلى تقليل الخطر الذي يتعرض له الجنود، وتقليل احتمال قتل المدنيين الأبرياء، ولكن فقط إذا قمنا بتطوير التكنولوجيا التي تضمن وقايةً كافية. فإذا طبقنا المنع التام، فلن نحقق ذلك وسيستمر قتل المدنيين على ما هو عليه.
جيش روسيا من الروبوتات
Russia’s robot army
بينما تتأخر روسيا في تكنولوجيا الدرونات الجوية مقارنة بجيش الولايات المتحدة، إلا أنها تأمل بأن تكسب المعركة الأرضية. وتشير مبادرة بدأت في عام 2013 إلى وفرة الروبوتات الأرضية: ومنها الصغيرة التي تستخدم في الداخل، والدبابات كبيرة الحجم، ومعظمها يستخدم نظام تشغيل ذاتي.
فعلى سبيل المثال، روبوت الدبابة الصغير Uran-9 مزود بمدفع أو ذخائر مضادة للدبابات، وقد زوِّد الجيش الروسي بـ 22 منها، وستنضم إلى الخدمة في العام القادم. ويمكن التحكم في الدبابة Uran-9 عن بعد، ولكن لها وضع تشغيل تلقائي تام للكشف عن الأهداف وتحديدها وإطلاق النار عليها ذاتيا.
يقول فاديم كوزيولن Vadim Kozyulin -من مركز دراسات السياسات PIR وهو مركز بحوث أمنيِّة في روسيا- إن توفير الروبوتات المسلحة هي عملية بطيئة، ولا يتعدى العديد منها مرحلة الاقتراح. ويقول كوزيولن إن الجيش الروسي لا يطلب آلات ذاتية القتل كهذه، ولكن يطلب آلات شبه ذاتية لها إمكانية التشغيل الذاتي إذا فقدت الاتصال بالمتحكمين من البشر نتيجة تشويش الراديو من قبل العدو.
وقد تعني الحاجة إلى الاستقلال الذاتي -كما هي الحال في الألغام الأرضية والقنابل العنقودية- أن روسيا لن تُصادق على موضوع المنع الذي قد يحدُّ من قدرتها العسكرية. (انظر:المقالة الرئيسية).
ويقول كوزيولن :”تتردد روسيا في الوقت الراهن في دعم المنع. كما تقوم روسيا بتقييم الوضع، وقد يتغير موقفها.”