لماذا يجب أن نكون حذرين من أنسنة بوتات المحادثة
على الرغم من كل قدراتها الناشئة المثيرة للقلق، لا تزال بوتات المحادثة مجرد متنبئة بالكلمة التالية. علينا أن نتذكر هذا وأن نتجنب رؤية سمات بشرية حيث لا يوجد أي منها، كما يحذر أليكس ويلكينز
بقلم أليكس ويلكينز
إلى أن عمدت شركة مايكروسوفت Microsoft إلى تقليص قدرات برنامج دردشة بينغ Bing chatbot، والذي يحمل الاسم الرمزي سيدني Sydney والمدعوم بإصدار متقدم من نموذج OpenAI’s ChatGPT، كانت هناك أيام قليلة من الفوضى في فبراير 2023 عندما كان برنامج الدردشة يُهدد مُختبري نظام بيتا ويرعبهم، بل يبادلهم الغرام.
حتى الصحافيين الذين يكتبون بانتظام عن الذكاء الاصطناعي Artificial Intelligence (اختصارا: الذكاء الاصطناعي AI) أعربوا عن دهشتهم: فهم يعرفون أن هذه البرامج هي مجرد نماذج إحصائية للغة على الإنترنت، لكنهم ما زالوا يجدون «شخصية» سيدني مقلقة ومؤنسنة بشكل مخيف.
لم تتم إتاحة بوت دردشة Bing للعالم بأسره بعد، وقد منعه تقليص قدراته من الخروج عن المسار مرة أخرى، لكنه لا يزال يثير القلق. فإذا قدمنا نسخة بوت الدردشة سيدني الأصلي إلى جمهور لا يعرفه، فما الإجراءات التي قد يقنع الناسَ باتخاذها، وهل سيعتقدون أن بوت الدردشة أكثر من مجرد نموذج للغة إحصائية – خطأ يرتكبه حتى المحترفون ذوو الخبرة أحياناً؟
لطالما كان إضفاء شخصية شبيهة بالإنسان على روبوتات المحادثة ممارسة معتادة، من إليزا ELIZA، وهي بوت محادثة بسيط – مصمم لمحاكاة أسلوب أسئلة المعالج النفسي روغيريان Rogerian – ابتكره عالم الحاسوب جوزيف وايزنباوم Joseph Weizenbaum في معهد ماساتشوستس للتكنولوجيا (اختصاراً: المعهد MIT) في عام 1964، إلى أحدث برامج ميكروسوفت تاي شات بوت Microsoft Tay chatbot في عام 2016، والذي سرعان ما قُطع اتصاله بالإنترنت بعد أن خُدِع للإدلاء بتصريحات عنصرية بغيضة.
يبدو الآن أنه من المسلّم به أن تكون استجابات بوتات الدردشة شبيهة بردود البشر، الأمر الذي تنبع منه المشكلات: مثلا اعتقد أحد مهندسي غوغل Google أن شركة لامدا أيه آي LaMDA AI التابعة للشركة كانت واعية، كما واجه تشات جي بي تي ChatGPT نصيبه العادل من الصعوبات.
يستطيع هؤلاء المقلدون البشريون أيضاً إخفاء ما يحدث بالفعل تحت الغطاء. فقد أوضح موراي شاناهان Murray Shanahan، الباحث من شركة ديب مايند DeepMind في لندن، مؤخراً كيف تعمل أنظمة الذكاء الاصطناعي AI هذه في ورقية بحثية منشورة قبل الطباعة بعنوان «التحدث عن نمذجات اللغة الكبيرة» Talking about large language models. فيها يكرر الإشارة إلى أنه على الرغم من التقدم الذي وصلت إليه الأعمال والقدرات الناشئة التي تعرضها، فإن كل ما تفعله هذه البرمجيات هو توقع الكلمة اللاحقة الأكثر احتمالا في تسلسل ما، وذلك بناءً على جميع علاقات الكلمات التي تعرضت لها البرمجية.
إذ يمكننا إقناع أنفسنا بأن نماذج الذكاء الاصطناعي AI هذه هي شيء أكثر من مجرد ذلك، حتى عندما نعلم أن الأمر ليس كذلك.
ويقول شاناهان إنه عندما يقود بوت المحادثة هذا الناس إلى الاعتقاد أنه شيء أكثر من مجرد ذلك، يكون ذلك شكلا من أشكال الخداع من جانب برنامج الدردشة الآلي. لا يمكن لهذا فقط أن يخدع الناس بالثقة في قدراته أكثر مما ينبغي، ولكنه قد يلعب أيضاً على تعاطف الناس مع ما يشعرون بأنهم إخوانهم في البشرية، مما يجبرهم على القيام بأفعال ربما لا يُقدمون عليها لولا ذلك.
اقترح باحثو الذكاء الاصطناعي AI الكشف صراحةً عن أن بوت المحادثة ليس بشرياً لتحسين الثقة بين الإنسان والذكاء الاصطناعي AI، لكن دراسة في عام 2020 أجرتها نيكا ماير Nika Meyer من جامعة غوتنغن University of Göttingen في ألمانيا وزملاؤها كشفت عن مشكلة أساسية في هذا النهج. فإذا نجح بوت المحادثة في تحقيق أهدافه، فمن غير المرجح أن يثق الناس بالنتيجة إذا كانوا يعرفون أنه نمذجة للذكاء الاصطناعي AI. ومن ناحية أخرى، إذا فشل في المساعدة، يميل الناس إلى أن يكونوا أكثر تعاطفاً، مع العلم أنه «مجرد» ذكاء اصطناعي.
لذلك يبدو أنه في بعض الحالات، قد نضطر إلى إجراء مفاضلة بين الانزعاج النفسي الذي نشعر به من أخذ المشورة من الذكاء الاصطناعي AI والمخاطر التي نتعرض لها عند اعتبار بوت الدردشة إنسانا ونخدع أنفسنا. إذ يمكننا أن نحمي أنفسنا بتذكر أنه مجرد خِداع. ولكن، كما أظهرت التجارب مع سيدني، لا يزال بإمكاننا إقناع أنفسنا بأن نماذج الذكاء الاصطناعي هذه هي شيء أكثر من ذلك، حتى عندما نعلم أن الأمر ليس كذلك.
التوجه السائد لا يزال يهدف إلى جعل بوتات المحادثة تتحدث مثل البشر، إلا أن هناك حركة متنامية لإعادة النظر في هذا الأمر
في حين أن التوجه السائد لا يزال يهدف إلى جعل بوتات المحادثة تتحدث مثل البشر، إلا أن هناك حركة متنامية لإعادة النظر في هذا الأمر. ففي ورقة بحثية نشرت في عام 2021، تحت عنوان «حول مخاطر الببغاوات العشوائية» On the dangers of stochastic parrots، كتبت عالمة اللغة إميلي بندر Emily Bender، من جامعة واشنطن University of Washington بسياتل، وزملاؤها أن قدرة المحاكاة الكبيرة المشاهدة في النمذجات اللغوية هي أحد العوامل الرئيسية في زيادة احتمالات ضررها. وكتبوا: «ندعو المجال إلى إدراك أن التطبيقات التي تهدف إلى محاكاة البشر بشكل يمكن تصديقه تجلب مخاطر أضرار بالغة».
أما أولئك الذين يعتقدون أن مستقبل الذكاء الاصطناعي AI ينذر بكارثة وشيكة ، فإن وقوع البشر تحت طائلة خداع بوتات الدردشة قد يبدو أمرا حتميا. ولكن هناك العديد من الخيارات التي يمكن اختيارها عن قصد عند تصميم نموذج لغوي كبير، مثل الشخصية التي يتحدث بها، أو ما إذا كان لديه نموذج في المقام الأول.
يجب أن يتم اتخاذ هذه الخيارات على المستوى المجتمعي، وليس في الغرف الخلفية لحفنة من شركات التكنولوجيا الغنية، مثل أوبن أيه آي OpenAI وغوغل Google. وبينما قامت شركات مثل ستابيليتي أيه آي Stability AI بتوفير بدائل مفتوحة المصدر للذكاء الاصطناعي من نص إلى صورة Text-to-image AIs، لا يوجد حتى الآن إصدار مفتوح المصدر لشيء مثل تشات جي بي تي ChatGPT. وإلى أن يتوفر ذلك، فإن ميلنا إلى رؤية السمات البشرية، حيث لا وجود لها، قد يقودنا إلى أغوار معتمة.
© 2023, New Scientist, Distributed by Tribune Content Agency LLC.