الآلات تَفُوقنا ذكاء، لكننا لا نزال على القمة
تقرير خاص: العالم في 2076
الآلات تَفُوقنا ذكاء، لكننا لا نزال على القمة
بقلم: توبي والش
ترجمة: آية علي
أيّا كانت الطريقة التي تنظر بها إلى المستقبل، فإنه يبدو مظلما، فالعالم تحت ضغط بيئي وسياسي واقتصادي هائل. ومن الصعب تحديد أيها أعظم مخاوفنا. حتى وجودنا ذاته لم يعد أكيدا. إذ تحيط بنا الأخطار من عدة اتجاهات محتملة: هجوم كويكب عملاق، الاحترار العالمي، وباء جديد، ثورة آلات النانو وتحويلها كل شيء إلى حطام من رماد.
وهناك خطر آخر كذلك، ألا وهو الذكاء الاصطناعي. ففي ديسمبر 2014 تحدث ستيفن هوكينغ Stephen Hawking إلى إذاعة بي بي سي قائلا: “إن تطوير ذكاء اصطناعي كامل قد يعني نهاية الجنس البشري.. ستنطلق الآلات من تلقاء نفسها معيدة تصميم ذاتها بمعدلات متزايدة باطراد. ولن يقدر البشر المحدودون بفعل التطور البيولوجي البطيء على التنافس معها وستحل الآلات محلّهم.” وفي العام الماضي أتبع هوكينغ كلامه هذا بقوله إنه من المحتمل أن يكون الذكاء الاصطناعي “هو أفضل أو أسوء شيء حدث للبشريّة على الإطلاق.”
كما أطلق أشخاص بارزون بمن فيهم إيلون ماسك Elon Musk، بيل غيتس Bill Gates وستيف وزنياك Steve Wozniak توقعات مماثلة عن الخطر الذي يشكّله الذكاء الاصطناعي على البشريّة. ومع ذلك، يستمر ضخّ بلايين الدولارات لتمويل أبحاث الذكاء الاصطناعي، وهناك تقدّم مذهل في هذا المجال. ففي مباراة تاريخية في شهر مارس، خسر البارع في لعبة GO لي سيدول Lee Sedol أمام الحاسوب AlphaGo بنتيجة 1-4. وقد بدأت الحواسيب بالتفوق على البشر في العديد من المجالات الأخرى، من قيادة سيارات الأجرة على الأرض إلى كسب المعارك في الهواء.
تدور مخاوف هوكينغ حول فكرة الحدث المنفرد التكنولوجي Technological singularity. وهي النقطة التي يشرع فيها الذكاء الاصطناعي بالاستقلال وتولي المسؤولية، وتبدأ أنواع Species جديدة أكثر ذكاء باستيطان الأرض. ويمكن تتبع فكرة الحدث المنفرد التكنولوجي إلى عدد من المفكرين المختلفين بمن فيهم جون فون نيومان John von Neumann، فيرنون فينج Vernor Vinge أحد مؤسسي الحوسبة، ومؤلف قصص الخيال العلمي. فعمر هذه الفكرة هو تقريبا عمر الأبحاث الذكاء الاصطناعي نفسها. ففي عام 1958 فقد كتب عالم الرياضيات ستنيسو أولام Stanisław Ulams في رثاء فون نيومان المتوفّى حديثا مُتذكرا: “محادثة واحدة ركّزت على التقدم التكنولوجي المتسارع والتغيرات في نمط حياة الإنسان، التي تُعطي مظهر الاقتراب من حدثٍ منفرد أساسيّ في تاريخ الجنس لن تستطيع العلاقات البشرية بعده أن تستمر بالصورة التي نعرفها.” (Bulletin of the American Mathematical Society, vol 64, p 1).
ومؤخرا، شاعت فكرة الحدث المنفرد التكنولوجي على يد راي كورزويل Ray Kurzweil الذي يتوقع حدوثها في نحو عام 2045، ونيك بوستروم Nick Bostrom الذي كتب عن عواقب ذلك كتابا هو من أكثر الكتب مبيعا. فهناك العديد من الأسباب التي تجعلنا نخاف من أن تتخطّانا الآلات في الذكاء. أصبح البشر النوع المهيمن على هذا الكوكب، ويرجع ذلك إلى حد كبير إلى ذكائنا الشديد. إذ تمتاز العديد من الحيوانات بأنها أكبر أو أسرع أو أقوى منّا، لكننا نستخدم ذكاءنا في ابتكار الأدوات والزراعة والتقنيات مذهلة مثل المحركات البخارية، والمحركات الكهربائية والهواتف الذكية. وقد حوّلت هذه الأشياء حياتنا وسمحت لنا بالسيطرة على الكوكب.
ومن ثم، فليس من المستغرب أن تهدّد الآلات التي تفكر – وقد تفكّر حتى بصورة أفضل منا – في انتزاع السلطة منا. وكما تعتمد الفيلة والدلافين ودببة الباندا على حُسن نيّتنا في استمرار وجودها؛ فإن وجودنا قد يعتمد -في المقابل- على قرارات هذه الآلات المفكّرة المتفوّقة.
إن فكرة تفجّر الذكاء؛ عندما تُحسّن الآلات ذكاءها بشكل متكرر فتتجاوز الذكاء البشري بشكل سريع، هي ليست فكرة جامحة بشكل خاص. إذ استفاد مجال الحوسبة كثيرا من العديد من الاتجاهات المطّردة/المتصاعدة المماثلة. فقد توقع قانون مور أن يتضاعف عدد الترانزستورات على الدوائر المتكاملة كل عامين، وقد حدث هذا بالفعل على مدار عقود. ولذا، فمن غير المعقول افتراض أنْ نمو الذكاء الاصطناعي كذلك نموّا اطّراديّا/متصاعدا.
ومثل العديد من زملائي العاملين في مجال الذكاء الاصطناعي؛ فأنا أتوقّع أننا على بعد 30 أو 40 عاما فقط من تحقيق الذكاء الفوق بشري. لكن هناك عدة أسباب قوية تجعل الحدث المنفرد التكنولوجي أمرا غير وارد.
حجة “ الكلب سريع التفكير”
فللسليكون أفضلية كبيرة من حيث السرعة بالنسبة إلى الجهاز العصبي الخاص بأدمغتنا. وتتضاعف هذه الميزة كل عامين أو نحوها وفقا لقانون مور. لكن السرعة وحدها لن تحقّق زيادة الذكاء. فحتى لو استطعتُ جعل كلبي يفكّر بشكل أسرع فمن غير المحتمل أن يجعله هذا قادرا على لعب الشطرنج، فهو لا يمتلك التجريد واللغة والبنى العقلية الضرورية لذلك. ويعبر ستيفن بينكر Steven Pinker عن هذه الحجة ببلاغة قائلا: “قوة المعالجة المطلقة ليست غبار جنِّية يستطيع حل جميع مشكلاتك بطريقة سحرية.”
فالذكاء هو أكثر بكثير من مجرد التفكير بشكل أسرع أو أطول في مشكلة شخص آخر. وبالطبع، قد ساعد قانونُ مور الذكاءَ الاصطناعي. ونحن نتعلم الآن بشكل أسرع ولدينا قواعد بيانات أكبر. وستساعدنا الحواسيب الأسرع على تطوير الذكاء الاصطناعي بالتأكيد. لكن يعتمد الذكاء –على الأقل بالنسبة إلينا نحن البشر– على أشياء أخرى كثيرة، بما في ذلك سنوات من الخبرة والتدريب. وليس من الواضح على الإطلاق ما إذا كان باستطاعتنا تجاوز هذا في السليكون عبر زيادة سرعة الساعة أو إضافة المزيد من الذاكرة.
الحجة الإنسانية
يفترض التفرّد أن الذكاء البشري عبارة -نوعا ما- عن نقطة خاصة للعبور، عن نقطة تحول. وقد كتب بوستروم: “يؤدي الذكاء الاصطناعي المطابق لمستوى الإنسان بشكل سريع إلى ذكاء اصطناعي أعلى من مستوى الإنسان… ومن المرجّح أن تكون الفترة الذي تتوافق خلالها الآلات والبشر تقريبا فترة وجيزة. وبعد ذلك بوقت قصير، لن يكون البشر قادرين على التنافس فكريا مع العقول الاصطناعية.”
إذا كان هناك شيء واحد تعلمناه من تاريخ العلم فهو أننا لسنا مميزين كما نحب أن نعتقد؛ فقد علمنا كوبرنيكوس أن الكون لا يدور حول الأرض، وأظهر لنا داروين أننا لا نختلف كثيرا عن القردة الأخرى، وكشف واتسون Watson وكريك Crick وفرانكلين Franklin أن شيفرة الحمض النووي للحياة نفسها هي التي تمدّنا وتمدّ أبسط كائن أميبا بالطاقة. وسيعلّمنا الذكاء الاصطناعي بلا شك أن الذكاء البشري ليس بشيء مميز في حد ذاته. وليس هناك سبب يدفعنا للافتراض بأن الذكاء البشري نقطة تحوّل، وأن مجرد عبورها يسمح بزيادات سريعة في الذكاء.
إن الذكاء البشري نقطة خاصة بالطبع وذلك لأننا – على حد علمنا – متفرّدون في قدرتنا على بناء مواضيع تضخّم قدراتنا الفكريّة. نحن المخلوقات الوحيدة على هذا الكوكب التي تمتلك ذكاء يكفيها لبناء ذكاء آخر، ولن يكون هذا الذكاء الجديد محدودا بالعمليات البطيئة للتناسل والتطور البشري. لكن هذا لا يقودنا إلى نقطة التحول؛ نقطة التحسين الذاتي المطّرد. لا يوجد سبب يدفعنا للافتراض بأن الذكاء البشري كاف لإنتاج ذكاء اصطناعي ذكيّ بما فيه الكفاية ليكون نقطة انطلاق التفرّد التكنولوجي. حتى وإن كان لدينا ما يكفي من الذكاء لتصميم ذكاء اصطناعي فوق بشري، فإن النتيجة قد لا تكون كافية لتسريع تفرّد تكنولوجي. إن تحسين الذكاء أصعب بكثير من مجرد أن تكون ذكيّا.
حجة “تناقص الغلة”
تفترض فكرة الحدث المنفرد التكنولوجي أن تحسينات الذكاء ستكون تحدث بنسبة تضاعف ثابتة نسبيا، فيصبح كل جيل أفضل بقليل من الجيل الذي يسبقه. ولكن أداء معظم أنظمة الذكاء الاصطناعي كان حتى الآن يعكس تناقص الغلة. فهناك العديد من الأمور التي تكون سهلة التحقيق في البداية، لكننا سرعان ما نواجه صعوبات في سعينا نحو المزيد من التحسينات. ويساعد هذا على توضيح العديد من التصريحات المتفائلة جدا التي أدلى بها الباحثون الأوائل في الذكاء الاصطناعي. قد يكون نظام ذكاء اصطناعي قادرا على تحسين نفسه لعدد لا حصر له من المرات، لكن الحد الذي يتغير فيه ذكاؤه بشكل عام قد يكون محدودا. على سبيل المثال: إذا تحسّن كل جيل بمعدل نصف آخر تغيير له فقط، فلن يتعدى النظام أبدا مضاعفة إجمالي ذكائه.
حجة “ قيود الذكاء”
هناك العديد من القيود الجوهرية في الكون، بعضها فيزيائي مثل: لا يمكنك السير بسرعة أكبر من سرعة الضوء، ولا يمكنك تحديد كلا من الموضع والعزم Momentum بدقة تامة، ولا يمكنك معرفة متى ستضمحلّ فيه ذرّة مشعّة. وأيّ آلة مفكّرة نبنيها ستكون مُقيّدة بهذه القوانين الفيزيائية. وبالطبع؛ إذا كان ذلك الجهاز في طبيعته إلكترونيا أو حتى كموميّا، فمن المرجّح أن تتعدى هذه الحدود حدود عقولنا البشرية الكيميائية والبيولوجية. ومع ذلك، فإن الذكاء الاصطناعي قد يواجه بعض القيود الجوهرية، بعضها يرجع إلى عدم اليقين المتأصّل في الطبيعة. ومهما كان اعتقادنا بصعوبة مشكلة ما، فقد يكون هناك حدود لجودة قدرتنا على اتخاذ القرار، حتى الذكاء ما فوق البشري لن يكون أفضل حالا منك في توقّع قرعة يانصيب يوروميليونز EuroMillions التالية.
حجة “ التعقيد الحسابي”
وأخيرا، فلدى علوم الحاسوب بالفعل نظرية متطورة حول مدى صعوبة حل المشكلات المختلفة. فهناك العديد من المشكلات الحوسبية التي لا يعد استخدام حتى التحسينات الاطرادية /التصاعدية كافيا لمساعدتنا على حلّها عمليّا. رلا يمكن للحاسوب تحليل رمز ما ومعرفة – على وجه اليقين – ما إذا كان سيتوقف أبدا، وهو ما يعرف بـ “مشكلة التوقف” Halting problem. فقد أثبت أبو الحوسبة والذكاء الاصطناعي آلان تورينغ Alan Turing بشكل شهير أن مثل هذه المشكلة ليست حسابية بشكل عام، بغض النظر عن مدى السرعة والذكاء في صنعنا للحاسوب الذي يحلل الرموز. وسيكون من المفيد التحوّل إلى أنواع أخرى من الأجهزة، مثل أجهزة الحواسيب الكموميّة، لكنها لن تقدّم سوى تحسينات اطّرادية على أجهزة الحاسوب التقليديّة، وهذا غير كاف لحل مشكلات مثل مشكلة التوقف لتورينغ Halting problem. فهناك أجهزة حواسيب افتراضية “مفرطة الطاقة hypercomputers” قد تستطيع اختراق مثل هذه الحواجز الحسابية، لكن احتمال وجود مثل هذه الأجهزة لا يزال أمرا مثيرا للجدل.
المستقبل
إذن، هناك العديد من الأسباب التي قد تحول دون أن نشهد -أبدا- حدوث تفرد تكنولوجي. ولكن حتى من دون تفجّر في الذكاء، فإنه قد ينتهي بنا المطاف بوجود آلات تظهر ذكاء فوق بشري. وقد يكون علينا فقط برمجة الكثير من هذه العملية المؤلمة بأنفسنا. وإذا كانت هذه هي الحال، فإن تأثير الذكاء الاصطناعي في اقتصادنا ومجتمعنا قد يحدث بسرعة أقل من تلك التي يخشاها أشخاص مثل هوكينغ. ومع ذلك، ينبغي لنا بالبدء بالتخطيط لذلك التأثير. من المرجّح أن يكون للذكاء الاصطناعي –حتى من دون الحدث المنفرد التكنولوجي- تأثير كبير في طبيعة العمل. فمن المحتمل أن تختفي وظائف كثيرة مثل قيادة سيارات الأجرة أو الشاحنات خلال العقد أو العقدين التاليين، وسيزيد هذا من عدم المساواة التي نراها في المجتمع اليوم. كما أن ذكاء اصطناعيا محدود جدا سيكون قادرا على التأثير في طبيعة الحرب. إذ ستحول الروبوتات الحرب إلى نوع من الصناعة، خافضة الحواجز أمام الحروب ومزعزعة استقرار النظام العالمي الحالي. كما سيستخدمها الإرهابيون والدول المتمردة ضدّنا. وإذا كنا لا نرغب في أن تنتهي بنا الحال بمواجهة “القاصم” Terminator، فعلينا حظر استخدام الروبوتات في ساحات المعركة في أقرب وقت. إذا جرت الأمور بشكل صحيح فإن الذكاء الاصطناعي قد يجعلنا جميعا أكثر صحة وسعادة وثراء، وإذا جرت بشكل خاطئ، فإنه قد يكون أحد أسوأ الأخطاء التي ارتكبناها على الإطلاق.
توبي والش Toby Walshهو أستاذ الذكاء الاصطناعي في جامعة نيو ساوث ويلز بأستراليا والمركزData61: مركز التميز لأبحاث تكنولوجيا المعلومات والاتصالات Centre of Excellence for ICT Research بأستراليا. وهو زميل الأكاديمية الأسترالية للعلوم Australian Academy of Science ورابطة النهوض بالذكاء الاصطناعي Association for the Advancement of Artificial Intelligence. وكتابه القادم: آلات مفكّرة: مستقبل الذكاء الاصطناعي Thinking Machines: The future of artificial intelligence.