الذكاء الاصطناعي يُوشِك أن يُحدِث ثورةً في الحرب، كُنْ حذرا
يُحب الخيال العلمي رسم الذكاء الاصطناعي العسكري كعقول أو روبوتات قاتلة، ولكن الحقيقة أكثر تعقيدا ورعبا، وهي تحدث الآن.
بقلم: كينيث باين Kenneth Payne
ترجمة: آية علي
“وحدهم الموتى شهدوا نهاية الحرب،” في ملاحظة قاتمة للفيلسوف جورج سانتايانا George Santayana ذات مرة. فغرائزنا العسكرية عميقة الجذور، انظر إلى قردة الشمبانزي، أقربائنا المقربين، وهو يخوضون “حروبا شاملة” تؤدي في بعض الأحيان إلى إبادة كاملة لمجموعات الذكور المنافسة. كما تشير الأدلة الأثرية والإثنوغرافيّة إلى أنّ الحرب بين أسلافنا الصيادين وجامعي الثمار كانت حالة مزمنة.
لقد خضنا هذه الحروب على مدى آلاف السنين وفقا للمبادئ الاستراتيجيّة نفسها التي تستند إلى فهمنا لعقول بعضنا البعض. ولكننا نقدّم الآن نوعا آخر من العقول العسكرية، وهو عقل ربما لا ينتهي به المطاف بالتفكير في الطريقة التي نفكر بها، على الرغم من أنّنا نحن الذين نبرمج هذه الكيفيّة. فقد بدأنا للتو فقط بمحاولة التفكير في الآثار المحتملة للذكاء الاصطناعي على الحروب البشريّة، ولكن جميع المؤشرات تدلّ على أنّها ستكون عميقة ومقلقة على نحو مفاجئ وحتمي.
نحن لا نتحدث هنا عن ديستوبيا [أدب المدينة الفاسدة] الخيال العلمي: روبوتات بمواصفات بشرية تتمتع بحرية التصرف وذات غريزة قاتلة، بل عن النوع الأكثر محدوديّة من الذكاء الاصطناعي والموجود حاليا. ويعدّ هذا النوع أقرب إلى تقنيةٍ لاتخاذ القرارات منه إلى سلاح في حد ذاته، وهذا يجعله مفيدا في المساعي السلمية وفي الحروب على حد سواء، الأمر الذي يصعّب تنظيمه أو حظره.
ويعتمد هذا الذكاء الاصطناعي الارتباطي Connectionist اعتمادا طليقا وفضفاضا على الشبكات العصبيّة لأدمغتنا، إذ تُدرَّب شبكات من الخلايا العصبيّة الاصطناعية Networks of artificial neurons على تحديد أنماط كميات كبيرة من البيانات، وتحصيل معلومات يمكنها استخدامها لأمثلة “وظيفة مكافأة” Reward function تمثّل هدفا معيّنا، سواء أ كان ذلك الهدف أمثلة زرٍّ معين على موقع فيسبوك أم لعب لعبة بوكر أم غو GO ناجحة أم الفوز في ساحة المعركة.
وفي الساحة العسكرية يحدث بالفعل نشر أسراب من الدرونات ذاتية التحكم (من دون طيار) من قُمرات على متن الطائرات، كما يمكن لبرنامج حاسوبي ذاتي التحكم في مناورة المركبات ببراعة متزايدة، وقد تغلب هذا البرنامج على أمهر الطيارين في الهواء، على الأقل في وضع المحاكاة. فهنالك أيضا أنظمة تمسح الصور لساعات طويلة بحثا عن أهداف، وهي تستجيب تلقائيا لتهديدات الصواريخ الواردة، وتعطي الأولوية للمعلومات الخاصة بالطيارين من البشر، وتغيّر نطاقات الرادار في معركة خاطفة السرعة من التحرّي والخداع.
ويثير هذا الأمر أسئلة أخلاقية واضحة ومثيرة للنقاش. فهل تستطيع أنظمة الذكاء الاصطناعي تحديد أهدافها؟ ألا يجب أن تكون للبشر الكلمة الحاسمة في القرارات التي تعد قرارات حياة أو موت؟ إلا أن الآثار المترتبة على تنفيذ الحرب – استراتيجيتها- لم تُستكشف على نطاق واسع بعد، وينبغي علينا أولاً فهم الأسس الإنسانية لهذه الاستراتيجية كي نفهم مدى عمقها.
ويمنح الذكاءُ الاصطناعيُّ البشرَ ميزة قويّة في الصراع. وفي الحروب يكون الحجم مهما، إذ يكون النصر بشكل عام حليف الكتائب الكبيرة، وهو منطق جرى وصفه في صيغة استمدها المهندس البريطاني فريدريك لانشيستر Frederick Lanchester من دراسات القتال الجوي في الحرب العالمية الأولى. فقد وجد لانشيستر أنّه أينما تطورت الحرب لتصبح مشاجرة يتعارك فيها الجميع مع بعضهم البعض، مع وجود أسلحة متنوعة وقتال مباشر، فإنّ القوّة القتالية لمجموعة ما تزداد وفقا لمربّع حجمها.
يخلقُ هذا حافزا أكبر لتشكيل مجموعات يتزايد حجمها باطراد في أوقات العنف. والسبب في كون البشر جيدين في هذا الأمر هو أنّنا جيّدون في فهم الآخرين، فنحن نقيم روابط اجتماعية مع بشر ليسوا على صلة بنا، بما في ذلك الغرباء، وفقا للأفكار وليس قرابة النسب، وتساعد الثقافة واللغة المشتركتين على دعم هذه الثقة. لدينا رادار ثاقب يكشف الخداع، واستعداد لمعاقبة أولئك المستفيدين بالمجّان Free-riders من غير المتعاونين. وكل هذه السمات سمحت لنا بتجميع قوى كبيرة ومتزايدة القوة، وتنظيمها وتجهيزها لشن الحروب بنجاح.
يسمح الذكاء الاجتماعي أيضًا للمجموعات الأضعف والأصغر بتجنب الهزيمة، فاستخدام الخداع والتحصين والتضاريس والتشكيلات المنضبطة يمكنه التعويض عن مزايا الحجم والصدمة. ففي معركة ثيرمابولي Battle of Thermopylae في فيلم 300، لم تتوانَ قوات أسبرطة الهجومية عند مرحلة ما عن التقدم بتهور إلى صفوف الجيش الفارسي الذي يفوقهم عددا بدرجة رهيبة، وهذا أمر من شأنه أن يؤدّي في الواقع إلى حدوث كارثة. وكما يحكي المؤرخ اليوناني القديم هيرودوت Herodotus، فقد استخدم الإسبرطيون الحدودَ الضيقة لممر جبلي، ورتبوا أنفسهم في تشكيلٍ مُنضبط مع دروع متشابكة لصدّ الفُرس. ويُعد هذا أيضًا ذكاءً استراتيجيا.
ويرتكز هذا الذكاء على نظرية العقل Theory of mind، وهي القدرة البشريّة على قياس ما يفكّر فيه الآخرون، وكيفيّة تفاعلهم مع موقف أو صديق أو خصم معين. وقد نصح الخبير الاستراتيجي الصيني القديم سون تزو Sun Tzu القادةَ بأن يعرفوا أنفسهم ويعرفوا أعداءهم، وذلك لئلا يهزموا أبدا في مئة معركة. وتُعدّ نظرية العقل ضرورية للإجابة عن أسئلة الاستراتيجية الكبيرة، مثل: ما حجم القوة المطلوب؟ وما الذي يريده العدوّ؟ وما مدى استعداده للقتال من أجله؟
غالبًا ما يكون صنع القرار الاستراتيجي غريزيًا لا واعيا، ولكن يمكن تشكيله أيضًا عن طريق التفكير المقصود والسعي إلى التعاطف، وقد نجت هذه الطريقة حتى في العصر النووي. ويعتقد بعض المفكرين الاستراتيجيين أنّ الأسلحة النوويّة غيّرت كل شيء لأن قوتها التدميرية قد هدّدت بالعقاب على أيّ هجوم، فبدلا من أن تمنع المعتدين من تحقيق أهدافهم، فإنّها منعتهم منعا مطلقا من الهجوم أصلا.
ويتطلّب هذا بالتأكيد طريقة جديدة في التفكير، كالحاجة إلى إخفاء الأسلحة النوويّة -على الغواصات مثلا- لضمان عدم حدوث “ضربة أولى” يمكنها ضياع كل فرصة للانتقام. من المؤكّد أن امتلاك الأسلحة النوويّة يعزّز موقف الدول الأضعف عسكريا، وهذا ما يفسّر رغبة الدول من إيران إلى كوريا الشمالية في الحصول عليها.
ولكنّ الاستراتيجية تبقى استراتيجية بشريّة حتى في العصر النووي. فهي تنطوي على الفرص، ويمكنها أن تصبح عاطفية، وهنالك مجال لسوء الفهم وسوء التواصل، ويمكن لبعضٍ من الفهم للسيكولوجية النفس البشرية أن يكون أمرا حاسما وحيويا للنجاح.
بماذا تفكّر؟
لننظر إلى أزمة الصواريخ الكوبيّة، وهو حدَث خضع لدراسة مكثفة من قبل علماء النفس والخبراء الاستراتيجيّين منذ ذلك الحين. ففي عام 1962، قُدِّمت للرئيس الأمريكي جون كنيدي أدلة مثيرة للقلق على أن الاتحاد السوفييتي كان يقيم منصات أسلحة نووية في كوبا. كان ردّة فعله الفوري هو الغضب والرغبة في شن ضربة عسكرية، حتى مع وجود خطر تصعيد الحرب الباردة. إلا أن ذلك سرعان ما أفسح المجال لمحاولة مقصودة ومدروسة للتعاطف مع تبجّح نيكيتا خروتشوف Nikita Khrushchev. وكان الزعيم السوفييتي قد حاول التنمّر على كنيدي في أول اجتماع لهما، ثم أرسل أثناء الأزمة رسالة ملطِّفة تبعها بعد ذلك رسالة أكثر صرامة، ولكن كنيدي صاغ حلّا حَفِظ ماء وجه خروتشوف على نحو حاسم. وقد كان كل من الذكاء الاجتماعي ونظرية العقل أمرين حاسمين في هذه المواجهات المتوترة.
يغير الذكاء الاصطناعي كلّ هذا الأمر، فهو أولا يقلب منطق الاستراتيجية بشكل قاطع نحو الهجوم. فميزة الذكاء الاصطناعي في التعرف على الأنماط Pattern recognition تسهّل تحديد نقاط الضعف الدفاعية، وتسمح باستهداف أكثر دقّة. أضف إلى ذلك صعوبة قتل أسرابها المنتشرة، ولكن يمكن للذكاء الاصطناعي التركيز بسرعة على نقاط الضعف الحرجة قبل إعادة التوزيع مرة أخرى، كما أنّها تسمح بالمجازفة بعدد أقل من الجنود المستخدمين في الحروب اليوم.
وكل هذا يخلق دافعا قويا للتحرك أولا في أي أزمة. أضف إليها أسلحة نووية أكثر دقة يجري تطويرها، وسيقوّض هذا أساس الردع النووي للحرب الباردة، لأنّ بإمكان ضربة عسكرية أولى جرى تنسيقها والتخطيط لها على نحو جيّد أن تهزم جميع القوات الانتقاميّة للمدافع. كما أنّ من شأن الإمكانيّات الفائقة للذكاء الاصطناعي أن تزيد من جاذبية الهجوم بسرعةٍ وحسم على الترسانة النووية الصغيرة لكوريا الشمالية مثلا.
أضف إلى ذلك أن الذكاء الاصطناعي يزيد من مستوى الشك الذي يكتنف مسألة توازن القوى بين الدول، وذلك من خلال جعله العديد من القوى، كالطائرات والدبابات التي يشغلها طواقم بشرية، عديمة الجدوى. فلن تجرؤ الدول على المخاطرة بامتلاك ذكاء اصطناعي عسكري من الدرجة الثانية، لأنّ أي ميزة هامشيّة في دقة وسرعة اتخاذ الذكاء الاصطناعي للقرار قد تكون حاسمة في أيّ صراع. والتجسس بالذكاء الاصطناعي موجود بالفعل، وإمكانيّة حدوث سباق تسلح جديد واضحة. ومن الصعب معرفة الفائز في هذا السباق، لذا من الأسلم أن نبذل كل ما بوسعنا للحصول على أفضل أسلحة الذكاء الاصطناعي.
لو كان هذا كل ما في الأمر؛ لقلنا أن الذكاء الاصطناعي لا يمثّل غير تحوّلٍ آخر في التوازن الاستراتيجي كالذي مثّلته الأسلحة النووية في وقتها. ولكن أكثر التغييرات إثارة للقلق وأقلها خضوعا للبحث والاستكشاف هو أنّ الذكاء الاصطناعي سيتخذ قرارات بشأن تطبيق القوى بطريقة تختلف اختلافا كبيرة عن الطريقة البشريّة. لا يعرف الذكاء الاصطناعيُّ الانفعالاتِ أو نوع التعاطف الذي يوجّه الاستراتيجييّن البشريين مثل كينيدي كما نُحسّ بها طبيعيا. قد نحاول ترميز قواعد الاشتباك في أنظمة الذكاء الاصطناعي قبل أي صراع، أي “وظيفة مكافأة” تخبرها بالنتيجة التي يجب عليها السعي وراء تحقيقها والكيفية التي تفعل بها ذلك. فعلى المستوى التكتيكي، لنقل مثلا وجود قتال جوي بين طائرتين من الطائرات ذاتية التحكم المتنافسة، فإنّ مطابقة أهدافنا مع وظيفة المكافأة التي ضبطنا عليها أنظمة الذكاء الاصطناعي لدينا قد تكون قابلة للتنفيذ، بحيث نُبرمِجها على كسب القتال والنجاة والتقليل من الخسائر في صفوف المدنيّين. تترجم مثل هذه الأهداف إلى قانون، حتى وإن كانت هنالك توترات بينهما.
“لا يعرف الذكاء الاصطناعي الانفعالات
أو التعاطف الذي يحسّ بها الاستراتيجيون البشر.”
ولكن الأمور تصبح أكثر تعقيدا مع ترابط المعارك الفردية معًا. والتفضيلات البشريّة غير واضحة، ومتناقضة أحيانا، وعرضة للتغيّر في غمار المعركة. وإذا لم نكن نعرف مسبقا ما نريده بالضبط، وشدّة رغبتنا به، فإنّ فرصة الأساطيل الآلية في تحقيق هذه الأهداف تكون ضئيلة. هنالك فرصة كبيرة لعدم التقاء رغباتنا بوظيفة المكافأة لدى الذكاء الاصطناعي، وتستغرق إعادة ضبط وظيفة المكافأة هذه وقتا كبيرا، هذا إضافة إلى كونك لن تتمكّن من إطفاء الذكاء الاصطناعي بكل بساطة في وسط المعركة، ويمكن أن يقودك هذا التردّد اللحظي إلى الخسارة.
وكان هذا قبل أن نحاول فهم الكيفية التي قد يستجيب بها الخصم. والاستراتيجية لعبةٌ بين شخصين على الأقل، وإذا أردنا أن يكون الذكاء الاصطناعي قادرا على المنافسة، فإنّ عليه توقّع تحرّكات العدو.
إنّ أكثر المقاربات مباشرة، والذي يؤدي دورا كبيرا في قدرات الذكاء الاصطناعي على التذكّر والتعرّف على الأنماط، هو دراسة السلوك السابق للخصم والبحث عن حالات اطراد Regularities قد تكون مُصاغة على نحو تقديري Probabilistically modelled. وكان برنامج ألفا غو AlphaGo قد استخدم هذه الطريقة، وهو برنامج الذكاء الاصطناعي الذي صنعته شركة ديب مايند DeepMind، والذي تمكّن من هزيمة البطل البشري ليو سيدول Lee Sedol في اللعبة اللوحية غو GO في عام 2016. ويمثل لوح غو “لعبة كونية” كبيرة، ولكن محدودة، بمجموعة واسعة من التحركات المستقبلية المحتملة. ومع ذلك، وفي ضوء الاستجابة المحتملة لخصومها، يمكن للآلة أن تضيق نطاق البحث على الحركات التي يُحتمل أن تؤدي إلى النصر، ومن ثم وضع مسار ناجح من الحركات، وكل ذلك بسرعة فائقة.
ومع وجود ما يكفي من السلوك السابق للتعلّم منه، تعمل الآلة حتى على لعبة كلعبة الجوكر، والتي – على عكس اللعبة غو – لا تتوفر فيها جميع المعلومات بسهولة، إضافة إلى وجود قدر كبير من الحظ. ويستطيع الذكاء الاصطناعي الآن التغلّب على لاعبي البوكر العالميّين عندما يلعب معهم مرارا وتكرارا.
ويمكن لهذه المقاربة أن تعمل على المستوى التكتيكي على نحوٍ جيّد، كأن يتوقع مثلا الكيفية التي قد يستجيب بها طيار عدو لمناورة ما، ولكنّه يفشل عند مواجهته لقرارات استراتيجية رفيعة المستوى. وهنالك تفرد كبير يحيط بأي أزمة عسكرية، الأمر الذي يصعّب القياس بناء على أي بيانات سابقة.
ولكن هنالك منهجا بديلا، وهو أن يحاول الذكاء الاصطناعي صياغة التفكير الداخلية للخصم. وتنجح هذه الطريقة فقط إذا كان الشيء الذي سيصيغه أقل تعقيدا، كأن يشغّل جهاز الآيفون نسخا مماثلة وظيفيا لألعاب آركيد الكلاسيكية التي كانت موجودة في ثمانينات القرن العشرين. وقد يتمكن ذكاؤنا الاصطناعي الاستراتيجي من استشعار أهداف ذكاء اصطناعي آخر مساو له في التعقيد، ولكن ليس كيفية سعيه إلى تحقيقها. والمؤامرات والمكائد الداخلية للذكاء الاصطناعي، والمستمرة بالتعلم مع الوقت، أشبه ما تكون بصندوق أسود، حتى بالنسبة إلى أولئك الذين صمّموه.
ويزداد تعقيد المشكلة عندما يكون العدوّ بشريا. وقد يستطيع الذكاء الاصطناعي دمج أركانٍ من التفكير البشري، مثل الطريقة المنهجية التي نضخّم بها نتائج منخفضة الخطورة، ولكن هذا يدخل مجددا ضمن بحث الذكاء الاصطناعي عن الأنماط. فهو لا يفهم ما تعنيه الأشياء بالنسبة إلينا، فهو يفتقر إلى المنطق التطوري الذي يوجِّه ذكائنا الاجتماعي. وعندما يتعلّق الأمر بفهم نوايا الآخرين -“أنا أعرف أنك تعرف أنّها تعرف”- فلا يزال أمام الآلات طريق طويل لتحقيقه.
“لا يمكننا دفن رؤوسنا والقول إنّ هذا
لن يحدث، فالتقنية اللازمة لحدوثه موجودة بالفعل.”
هل هذا مهم؟ فليس البشر قارئين ناجحين للعقول، فتاريخ الأزمات الدولية زاخر بسوء الفهم. وفي سرده الرصين والمروّع للاستراتيجية النووية في كتاب آلة يوم القيامة The Doomsday Machine، يصف دانيال إلسبيرغ Daniel Ellsberg وقتا أشار فيه نظام الإنذار المبكر الأمريكي الأصلي إلى أنّ هناك ضربة عسكرية سوفييتية قادمة. أما الحقيقة؛ فهي أن حزم الرادار القوية الخاصة بالنظام كانت ترتدّ عائدة من سطح القمر. فهل كانت الآلة ستتوقف لبرهة من أجل التأكد من هذا الخطأ قبل إطلاق ضربة مضادة، كما فعل البشر المسؤولون حينها؟
ويحاول البشر دائما منطَقَة رغبات العدوّ، وفهم ذلك ضمن سياق تجاربهم ودوافعهم ومشاعرهم الخاصّة. ربّما لا تشارك الماكينات استجابة كيندي العاطفية التلقائية في عام 1962، ولكنّها لا تشاركه أيضا قدرته على التفكير من منطلق وجهة نظر خصومه.
وتحركات الذكاء الاصطناعي غالبا ما تكون غير محسوبة. ففي مباراته الثانية ضدّ لي، قام ألفا غو بخطوة راديكالية لم يتوقعها مطلقا الخبراء البشريون الذين كانوا يشاهدون المباراة. ولم يكن هذا إبداعا استثنائيا ولا نظرة ثاقبة ومتبصرة للخطة التي يلعب بها لي. وكانت “حركة 37” التي تسببت في فوز الآلة بالمباراة قد جاءت نتيجة التفكير القائم على الاحتمالات Probabilistic reasoning وذكريات لا تشوبها شائبة عن الكيفية التي لُعبت بها مئات الآلاف من المباريات السابقة. إنّ آخر شيء قد نحتاج إليه هو ذكاء اصطناعي فائق السرعة وشديد العبقرية وعدواني يقوم بتحركات مذهلة وغير متوقعة عند مواجهته لآلات أخرى.
ليس بالضرورة أن يكون هنالك وقت لأن يتدخل الحكم الإنساني في معركة من الآلات ذاتية التحكم قبل أن تخرج الأمور عن السيطرة. أمّا على المستوى التكتيكي، فإنّ الإبقاء على وجود بشر في الصورة سيضمن فوز المقاتلين المكونين بالكامل من آلات ذاتية التحكم ومتفوقة في السرعة. وعلى الرغم من النوايا المعلنة للحكومات الغربية الليبرالية، فسيكون هنالك مجال أقل بكثير من أي وقت مضى للإشراف البشري على الحروب التكتيكية السريعة.
احتمالات باردة
لعل ذلك ينطبق على مستويات استراتيجية أعلى. وكان هيرمان كان Herman Kahn، وهو خبير استراتيجي في مجال الطاقة النووية، والذي بُنيت عليه تقريبا شخصية الدكتور سترانغلوف Dr strangelove، قد تصوّر التصعيد كـ “سلالم” موزونة بدقّة. ويُكسب الصراع من خلال السيطرة على خصم على درجة من درجات سلم، وإيضاح قدرتك على تصعيد عدة درجات من الشدة على نحو مفاجئ، مع مخاطر لا حصر لها بالنسبة إلى العدو، وهو ما أطلق عليه كان “هيمنة التصعيد” Escalation dominance.
ولكن درجات السلم هذه تفتقر إلى الدقة في العالم الحقيقي. تخيّل وجود نظامين متنافسين من أنظمة الذكاء الاصطناعي، تتألف من درونات، ومن أجهزة استشعار وصواريخ تفوق سرعة الصوت، ومحاصرين في لعبة “تحدي الدجاجة” تصاعديّة. إذا كانت آلتك هي أوّل من يتراجع، أو حتى توقفت لوهلة لتنفيذ قرارك؛ فستخسر. كما أن كثافة العمل وسرعته تعطي الأتمتة دفعة أكبر. ولكن كيف ستقرّر الآلة ما يتطلّبه الأمر لتحقيق هيمنة التصعيد على منافسها؟ هنا، ما من أفكار في عقل العدو لمحاولة تحليلها، ولا مجال للشفقة أو التعاطف، ولا أشخاص لإكراههم وبث الرعب في قلوبهم. كل ما أمامنا مجرد احتمالات باردة وغير إنسانية تُقرَّر في لحظة.
كانت تلك هي حركة 37 التي قام بها برنامج ألفا غو AlphaGo في مباراته الثانية ضد بطل العالم. وقد يكون الوقت أيضا أوائل شهر ديسمبر من عام 2041، وهنالك سرب ضخم من الدرونات يعبر المحيط بسرعة فائقة، متجها نحو مقر أسطول الولايات المتحدة في المحيط الهادي. لا يمكننا دفن رؤوسنا والقول إنّ هذا لن يحدث، فالتقنية اللازمة لحدوثه موجودة بالفعل. كما أننا لن نتمكن من فرض حظر شامل، وذلك لأنّ الميزة الاستراتيجية التي سيحظى بها من يطوّرها في الخفاء ستكون مهولة. والحل المطلوب لمنع حدوث هذا الأمر معروف لدى علماء الدراسات الاستراتيجية، ويتمثل بضمان الفوز في سباق التسلّح بالذكاء الاصطناعي القادم.
كينيث باين Kenneth Payne مُحاضر في كلية الدراسات الأمنية، جامعة كينغز كوليدج بلندن، ومؤلف كتاب الاستراتيجية والتطور والحرب: من القردة إلى الذكاء الاصطناعي Strategy, Evolution and War: From apes to artificial intelligence (مطبعة جامعة جورج تاون، 2018).
نشرت المقالة في مجلة نيوساينتيست، العدد 3195، 15 سبتمبر عام 2018