تعرف إلى الذكاء الاصطناعي المتمرس اجتماعياً الذي بدأ بفهم النوايا البشرية
لكي ينتقل الذكاء الاصطناعي إلى المستوى التالي، يحتاج إلى فهم أهداف الآخرين ومعتقداتهم - وهي مهارة كان يُعتقد في السابق أنها بعيدة المنال. لكن بحثاً جديداً يظهر أن الآلات الذكية عاطفياً في الطريق
بقلم إد جينت
الذكاء الاصطناعي الخارق Superhuman artificial intelligence موجود بالفعل بيننا. حسناً نوعا ما. فعندما يتعلق الأمر بلعب ألعاب مثل الشطرنج وغو Go، أو حل التحديات العلمية الصعبة مثل التنبؤ بهياكل البروتين، فإن الحواسيب تسبقنا كثيراً. لكن لدينا قوة عظمى واحدة لم تقترب بعد من إتقانها: قراءة العقل Mind reading.
يتمتع البشر بقدرة خارقة على استنتاج أهداف الآخرين ورغباتهم ومعتقداتهم، وهي مهارة حاسمة تعني أنه يمكننا توقع تصرفات الآخرين وعواقبنا. فقراءة ما يجول في العقول هي مهارة سهلة بالنسبة إلينا، على الرغم من أننا، في كثير من الأحيان، لا نفكر في توضيح ما نريد قوله بالتفصيل. وإذا كان للذكاء الاصطناعي أن يصير مفيداً حقاً في الحياة اليومية – للتعاون بشكل فعال معنا أو، في حالة السيارات ذاتية القيادة – مثلا لإدراك أن طفلا قد يعبر الشارع بعد كرة مرتدة – فعليها تطوير القدرات البديهية نفسها.
المشكلة هي أن القيام بذلك أصعب بكثير من تدريب أستاذ شطرنج. إنه ينطوي على التعامل مع أوجه عدم اليقين في السلوك البشري، ويتطلب تفكيراً مرناً، وهو ما يتعثر عادةً تحقيقه مع الذكاء الاصطناعي. ولكن التطورات الأخيرة، بما في ذلك الدليل على أن الذكاء الاصطناعي خلف ChatGPT يفهم وجهات نظر الآخرين، تُظهر أن الآلات الذكية اجتماعياً ليست حلماً بعيد المنال. إضافة إلى ذلك، قد يكون التفكير في الآخرين خطوة نحو هدف أعظم – الذكاء الاصطناعي الواعي بالذات.
يقول هود ليبسون Hod Lipson من جامعة كولومبيا Columbia University في نيويورك: «إذا أردنا أن تتكامل الروبوتات، أو الذكاء الاصطناعي بشكل عام، في حياتنا بطريقة سلسة، فعلينا أن نتوصل إلى مثل هذا الأمر… علينا أن نمنحها هذه الهدية التي أعطانا إياها التطور: القدرة على قراءة ما يجول في عقول الآخرين».
يشير علماء النفس إلى القدرة على استنتاج الحالة العقلية للآخر بما يطلق عليه اسم نظرية العقل Theory of mind. تقول أليسون غوبنيك Alison Gopnik من جامعة كاليفورنيا University of California في بيركلي، إن هذه القدرة غير البشرية تبدأ بالتطور في سن مبكرة جداً. ففي سن 9 أشهر، يفهم الأطفال أن تصرفات الناس مرتبطة بأهدافهم. وبين 18 شهراً وسنتين، يبدؤون بإدراك أن أهداف كل شخص يمكن أن تكون مختلفة لأن لدينا رغبات فريدة.
نظرية العقل
في نحو الرابعة من العمر، يجتازون «اختبار الاعتقاد الخاطئ» False belief test. ويتضمن ذلك طفلا يشاهد شخصا يضع غرضا ما في مكان ما، ويتم نقله بعد ذلك دون علم ذلك الشخص. بعد ذلك يُسأل الطفل عن المكان الذي سيبحث فيه الشخص الآخر أولاً، والإجابة الصحيحة تتطلب منه أن يفهم أن لدى الشخص الآخر معتقدات مختلفة وخاطئة. ومن اللافت للنظر أنه بحلول سن الخامسة تقريباً، يتمتع البشر بقدرة متطورة إلى حد ما على استنتاج ما يفكر فيه الآخرون، كما تقول غوبنيك.
الناس ليسوا هم القراء العقل الوحيدون. يبدو أيضاً أن بعض الحيوانات تظهر درجات متفاوتة من نظرية العقل. فالشمبانزي والبونوبو والأورانغ أوتان (إنسان الغاب) كلها قادرة على اجتياز اختبار الاعتقاد الخاطئ، والطيور بما في ذلك غربان الغُدَاف Ravens والقيق (أبو زريق) Jays قادرة أيضاً على استنتاج الحالات العقلية للآخرين.
ومع ذلك، فإن كيفية إعادة إنتاج هذه القدرات في الآلات ليست واضحة على الإطلاق. وجزء من المشكلة هو أن ما نصفه بنظرية العقل ليس في الحقيقة مجرد أمر واحد. إذ يقول بيرترام ماليه Bertram Malle من جامعة براون Brown University، رود آيلاند: «هناك الكثير من العناصر يتضممنها ما يطلق عليه الناس نظرية العقل… إنها مجموعة كبيرة من القدرات». في الطرف الأبسط من هذا الطيف Spectrum توجد القدرة على فهم الدوافع الكامنة وراء الأفعال، في حين يقع في الطرف الآخر نوع المناورات الاجتماعية المعقدة الموجودة في رواية لجين أوستن مثلا.
أحد التحديات الرئيسية هو السياق Context، كما يقول جوليان جارا إيتنجر Julian Jara-Ettinger من جامعة ييل Yale University. على سبيل المثال، إذا سألك أحدهم عمّا إذا كنت ذاهباً للجري وأجبت: «إنها تمطر»، فيمكنه أن يستنتج سريعاً أن الإجابة هي لا. ولكن هذا يتطلب قدراً هائلاً من المعرفة الأساسية حول الجري والطقس وتفضيلات الإنسان.
عندما يتعلق الأمر بتعليم الذكاء الاصطناعي هذه المهارات، فمن المنطقي أن نبدأ بطريقة بسيطة، كما يقول ماليه، خاصةً أنه يبدو أن هناك نوعاً من التسلسل الهرمي لمهارات نظرية العقل. ويضيف قائلا: «إن القدرات الجسدية أكثر تواتراً في عالم الحيوان، وتظهر في وقت مبكر جداً في مراحل النمو البشرية، وربما تكون أقل تعقيداً».
غير أن أبسط المهارات الاجتماعية بعيدة كل البعد عن كونها بسيطة ولا يمكن ترجمتها إلى آلات. إذ يختلف نوع الحسابات المتضمنة فيها اختلافا جذريا عن منطق المعادلات الذي تستخدمه الحواسيب عادة. الأهم من ذلك، ستحتاج الآلات إلى أن تكون قادرة على التعامل مع حالة عدم اليقين Uncertainty، كما يقول صامويل كاسكي Samuel Kaski من جامعة مانشستر University of Manchester في المملكة المتحدة.
من المستحيل رصد العمليات العقلية الداخلية لأي شخص بشكل مباشر، لذا فإن أفضل ما يمكنك فعله هو تخمين استنتاجات مستنيرة بناءً على الأدلة المتاحة. ويتضمن القيام بذلك عادةً قلب تقنية تعلم الآلة Machine learning الكلاسيكية التي تسمى التعلم المُعزَّز Reinforcement learning رأساً على عقب. في الشكل التقليدي، يتضمن ذلك تحديد هدف للذكاء الاصطناعي ومكافأته على اتخاذ الإجراءات التي تعمل على تحقيق هذا الهدف. ومن خلال التجربة والخطأ، يتعلم الوكيل Agent السلوكيات التي تحقق الهدف. أما «التعلم المعزز العكسي» Inverse reinforcement learning، فيعمل بطريقة أخرى: رصد تصرفات شخص ما بمرور الوقت، واستخدام ذلك لتكوين صورة لما يحاول هذا الشخص تحقيقه. ويشبه هذا الطفل الذي يشاهد لعبة الغميضة للمرة الأولى ويستنتج بسرعة أهداف اللاعبين المختلفين.
تعتمد الطريقة الشائعة للتعلم التعزيزي العكسي على تقنية إحصائية تسمى الاستدلال البايزي Bayesian inference. يتيح لك ذلك تحليل البيانات الجديدة مع مراعاة المعرفة المسبقة. يقول كاسكي إن هذه التقنية قوية لأنها تتعامل جيداً مع عدم اليقين، وتتيح لك الاستفادة مما تعرفه بالفعل عن مشكلة ما، إضافة إلى تكييف المعلومات الجديدة عندما تصبح متاحة.
في عام 2022، استخدم كاسكي وزميله سيباستيان دو بيوتيه Sebastiaan De Peuter معادلات بايزية لتطوير نموذج أولي لمساعد رقمي Digital assistant يمكن أن يساعد شخصاً ما على حل المشكلات التي تتطلب اتخاذ سلسلة من القرارات المترابطة. في هذه الحالة، ساعد الذكاء الاصطناعي شخصاً ما على التخطيط لرحلة لمشاهدة معالم المدينة في عطلة نهاية الأسبوع بناءً على ميزانيته وقيوده الزمنية وتفضيلاته. قد يبدو المثال تافهاً، لكن كاسكي يقول إنه مشابه بشكل أساسي للمساعدة على حل المزيد من المهام المعقدة مثل التصميم الهندسي، وهدفه هو تطوير مساعدين ذكاء اصطناعي لتسريع عمل العلماء والأطباء. يقول: «الدافع يأتي حقاً من القدرة على حل المشكلات الصعبة بشكل أفضل».
اعتمدت معظم الأبحاث حول نظرية العقل للآلة Machine theory of mind حتى الآن على سيناريوهات مبسطة، مثل استنتاج أهداف الوكلاء الذين يتنقلون في عوالم الشبكة ثنائية الأبعاد الأساسية. ولكن جوش تينينباوم Josh Tenenbaum، من معهد ماساتشوستس للتكنولوجيا Massachusetts Institute of Technology، يحاول تطبيق هذه التقنيات في العالم الحقيقي. في عام 2020، جمعت مجموعته بين معادلات بايزية مع لغة البرمجة المستخدمة من قبل الروبوتات، والتي يقول إنها يمكن أن تساعد، في نهاية المطاف، على تطبيق هذه التقنيات على التحديات العملية التي تواجه الروبوتات. في الآونة الأخيرة، عمدوا إلى زيادة تعقيد المهمة إلى ثلاثة أبعاد.
يقول تينينباوم إن إحدى الطرق الرئيسية لاختبار نظرية العقل عند الأطفال هي إظهار مقاطع فيديو لأشخاص، ثم اختبار الأطفال حول ما يحاول الناس تحقيقه، وأراد فريقه تجربة ذلك باستخدام أنظمة الذكاء الاصطناعي. في عام 2021، كشف تينينباوم وزملاؤه النقاب عن تحدٍ جديد يشاهد فيه وكلاء الذكاء الاصطناعي رسوماً متحركة ثلاثية الأبعاد لشخصيات كرتونية وهي تركض وتقفز فوق الجدران وتخترق الأبواب. فقد اقترب نموذجهم البايزي من التنبؤ بمستوى الإنسان في عدة سيناريوهات.
بينما لا يزال الوقت مبكراً، يقول تينينباوم إن فريقه يعمل مع باحثين في مايكروسوفت Microsoft وآي بي أم IBM وغوغل Google من المهتمين على تطبيق أفكارهم على منتجات حقيقية. يقول: «نحن بعيدون عن تطوير نموذج كامل لنظرية العقل… ولكن لدينا ما يكفي من وحدات البناء التي – في الواقع إذا نظرنا إلى النطاق الهندسي- يمكن أن تكون مفيدة جداً بالفعل في مجموعة من التطبيقات».
تعلم عميق
يتبع باحثون آخرون نهجاً مختلفاً تماماً لهذه المشكلة. اعتمدت معظم العناوين الرئيسية التي استحوذت على تطورات الذكاء الاصطناعي في السنوات الأخيرة على الشبكات العصبية للتعلم العميق Deep-learning neural networks، وهي مجموعة من الخوارزميات المستوحاة بشكل فضفاض من الدماغ. الميزة الرئيسية هي أن المبرمجين يبنون القليل جداً من المعرفة المسبقة في هذه الأنظمة، وبدلاً من ذلك يسمحون لهم بالتعلم من التجربة عن طريق استيعاب أطنان من البيانات.
هذا هو النهج الذي اتبعه باحثون في شركة ديب مايند DeepMind التابعة لغوغل لتطوير ما يسمى نظرية العقل-الشبكة Theory of Mind-net أو اختصارا النظام ToM-net. في عام 2018، أظهروا أن النظام ToM-net يمكن أن يجتاز اختبار المعتقد الخاطئ، عندما أخفى الباحثون أو نقلوا أشياء كان
وكلاء آخرون يبحثون عنها في عالم شبكة ثنائية الأبعاد. منذ ذلك الحين، طبق آخرون أفكاراً مماثلة على مجالات أكثر تعقيداً.
يقول ليبسون إن أحد المعالم الرئيسية في تطوير نظرية العقل لدى الأطفال هو فهم أن وجهة نظر الناس يمكن أن تختلف عن وجهات نظرهم هم أنفسهم. على سبيل المثال، غالباً ما يحاول الأطفال الذين تقل أعمارهم عن أربع سنوات الاختباء بإغلاق أعينهم، على افتراض أنه إذا لم يتمكنوا من رؤيتك، فلن تتمكن من رؤيتهم. لذلك، في عام 2019، تحدى ليبسون وزملاؤه الذكاء الاصطناعي العميق في لعبة الغميضة. ابتكروا محاكاة ثلاثية الأبعاد مليئة بالعقبات وأسقطوا عاملين، مفترس وفريسة، جاءت معلوماتهم الوحيدة من نظرتهم الشخصية الأولى للبيئة.
كان الباحث محكوماً بمجموعة من القواعد المصممة لمساعدته على تعقب العامل الآخر، وكان المخفي محكوماً بشبكة عصبية، وأخيرا نجح النظام عبر العديد من الجولات التجريبية في تعلم كيفية الاختفاء. لحل هذا التحدي، كان على المختبئ أن يرى العالم من خلال عيون الطالب، كما يقول ليبسون. ويضيف: «أعتقد أن هذا هو أصل نظرية العقل… لكي تكون قادراً على رؤية العالم بصرياً من منظور شخص آخر، فلن تفكر فيه فقط بشكل منطقي».
في عام 2021، وسّع ليبسون وزملاؤه نهجهم، حيث أظهروا أن الذكاء الاصطناعي تمكن باستخدام آلاف الصور من تدريب روبوت يقوم بأنشطة بسيطة، وتمكن الروبوت أن يتعلم تخمين خطط الذكاء الاصطناعي بدقة تصل إلى 99%. حتى أنه اجتاز اختبار المعتقد الخاطئ عندما أخفى الباحثون أحد أهداف الروبوت.
فهم النوايا
الدافع الرئيسي لنهج ليبسون هو أنه يريد أن تنشأ نظرية العقل تلقائياً من عملية التعلم. ويقول إن بناء المعرفة السابقة في الذكاء الاصطناعي يجعلها تعتمد على فهمنا غير الكامل لنظرية العقل. وإضافة إلى ذلك، قد يكون الذكاء الاصطناعي قادراً على تطوير أساليب لا يمكننا تخيلها أبداً. يقول ليبسون: «يمكن أن يكون هناك العديد من أشكال نظرية العقل التي لا أعرف عنها شيئاً لمجرد أنني أعيش في جسم بشري لديه أنواع معينة من الحواس وقدرة معينة على التفكير».
في وقت سابق من فبراير 2023، نشر ميشال كوسينسكي Michal Kosinski من جامعة ستانفورد Stanford University في كاليفورنيا أدلة محيرة على هذا النوع من الأمثلة. في ورقة لم تتم مراجعتها بعد من قبل الأقران، وصف تغذية الذكاء الاصطناعي للتعلم العميق الداعم لنظام ChatGPT بنصوص تصف أمثلة كلاسيكية على المعتقدات الزائفة، وتغذية نظام آخر بحزمة تحتوي على محتويات غير متوقعة. ومن دون أي تدريب خاص، أبلى الذكاء الاصطناعي بلاء حسنا في الاختبارات، وحقق ما يعادل النتيجة المتوقعة أن من طفل يبلغ من العمر تسع سنوات.
تشير النتائج الجديدة من الباحثين في شركة ميتا Meta إلى أن مجموعة من الأساليب قد تكون طريقة أكثر قوة لإعادة إنتاج بعض القدرات المتضمنة في نظرية العقل: في نوفمبر 2022، كشفوا النقاب عن ذكاء اصطناعي يسمى Cicero تُعلم لعب اللعبة الدبلوماسية Diplomacy، والتي قد يلعبها ما يصل إلى سبعة أشخاص يقاتلون لغزو أوروبا. قبل كل جولة، يحصل اللاعبون على فرصة للتفاوض وتشكيل تحالفات. هذا يمثل تحدياً كبيراً للذكاء الاصطناعي، حيث يتطلب التواصل الفعال والتنبؤ بنوايا اللاعبين الآخرين للعمل من أجل تحقيق التعاون.
حل الفريق هذا التحدي من خلال ربط نموذج لغة التعلم العميق الذي يمكنه تفسير وإنشاء الرسائل بنموذج التخطيط الاستراتيجي الذي يُعلِّم اللعبة بإعادة تشغيل نسخ من نفسها. بشكل حاسم، اعتمد نموذج التخطيط على مفاهيم من نظرية اللعبة، والتي تستخدم النماذج الرياضياتية لفهم عملية صنع القرار الاستراتيجي. تدرب النظام Cicero على بيانات من جولات حقيقية للعبة دبلوماسية وذلك للتنبؤ بما سيفعله اللاعبون بناءً على حالة المجلس والحوار السابق. تم إدخال هذا بعد ذلك في نموذج التخطيط، والذي يأتي مع استراتيجية توازن بين الحركات المثلى من الناحية النظرية لجميع اللاعبين مقابل ما تشير رسائلهم إلى أنهم سيفعلونه. بعد ذلك يولد النظام Cicero رسائل لمساعدته على تحقيق أهدافه. في إحدى المسابقات عبر الإنترنت، كان النظام من بين 10% التي احتلت المرتبة الأولى، ومن دون إثارة الشكوك في أن اللاعب كان ذكاءً اصطناعياً.
يقول نعوم براون Noam Brown، أحد الباحثين الرئيسيين، إن الفريق قرر عدم استخدام مصطلح نظرية العقل لتجنب الانغماس في الدلالات، لكنه يعتقد أن عملهم يقدم مساهمات أساسية. ويضيف قائلا: «الوردة بأي اسم آخر [هي وردة]. إن المهم هو الجوهر، وأعتقد أن جوهر ما نقوم به هو فهم معتقدات وأهداف ونوايا اللاعبين الآخرين».
هذه خطوة مهمة أخرى على طريق الآلات الذكية اجتماعيا. ولكن قدرة النظام Cicero على نمذجة العمليات العقلية للاعبين لا تزال أدنى من النظرية الحقيقية للعقل، كما يقول تينينباوم، لأن النماذج خاصة جداً بلعبة دبلوماسية ولا يمكن إعادة استخدامها لأغراض أخرى. ويقول: «يبدو أن النظام قد اكتسب بعض الاستراتيجيات التي تعكس ما يفعله البشر باستخدام نظرية العقل، لكن هذا لا يشبه القول إن النظام قد اكتسب نظرية العقل».
كما يقول تينينباوم، قد يبدو هذا وكأنه تفصيل غير مهم، ولكن هناك أسباب عملية قد تجعلنا نريد أن يكون للذكاء الاصطناعي شكل أكثر شبهاً بنظرية العقل لدى الإنسان. فعادة ما تكون أنظمة التعلم العميق عبارة عن صناديق سوداء – من الصعب فهم كيفية اتخاذ القرار بالضبط. من ناحية أخرى، يمكن للبشر شرح أهدافهم ورغباتهم لبعضهم البعض باستخدام لغة وأفكار مشتركة. ووفقا لتينينباوم، في حين أنه من المرجح أن تؤدي المناهج القائمة على التعلم دوراً مهماً وأكثر فاعلية في تطوير أنظمة ذكاء اصطناعي، فإن البناء الواضح للطرق المشتركة لتمثيل المعرفة قد يكون أمراً بالغ الأهمية لبناء ثقة البشر بالذكاء الاصطناعي والتواصل معه.
«يجب أن يكون هناك شبه بشري أساسي، ولا أعتقد أنك ستحصل عليه إذا اتبعت طريقة تعتمد على إنشاء مجموعة بيانات ضخمة والقيام بالكثير من تعلم الآلة»، كما يقول تينينباوم. ويضيف إنه سيكون هذا أيضاً أمراً بالغ الأهمية إذا أردنا استخدام الذكاء الاصطناعي لمساعدة المُستخدِم على فهم كيفية عمل نظرية العقل بالنسبة إلينا أيضاً.
يقول ليبسون إنه من المهم أن نتذكر أن السعي إلى إضفاء نظرية العقل على الآلات يدور حول أكثر من مجرد بناء المزيد من الروبوتات المفيدة. إنها أيضاً خطوة على الطريق نحو هدف أعمق لأبحاث الذكاء الاصطناعي والروبوتات: بناء آلات واعية حقاً Truly sentient. يقول ليبسون: «الشيء الأكثر روعة في نظرية العقل هو أنها تقع على مسار الوعي بالذات والإدراك… والتفكير في الأشخاص الآخرين والوكلاء Agents الآخرين يقع على مسارك لتعلم التفكير في نفسك».
يبقى أن نرى ما إذا كنا سنصل إلى هناك. لكن ربما، على طول الطريق، سنتعلم شيئاً عن أنفسنا أيضاً.
© 2023, New Scientist, Distributed by Tribune Content Agency LLC.