أحد صفحات التقدم العلمي للنشر
Advertisement
تكنولوجيا

الوعد المفاجئ والمخاطر العميقة لأنظمة الذكاء الاصطناعي التي تتظاهر بالتعاطف

يلجأ الملايين منا إلى برامج الدردشة للحصول على الدعم العاطفي. ولكن هناك أسباباً وجيهة للاعتقاد بأن الذكاء الاصطناعي لن يكون قادرا أبدا على التعاطف الحقيقي، مما يثير أسئلة عميقة حول دوره في المجتمع

بقلم أماند روجيري

بعد مرور مئة يوم على الحرب في غزة، كنت أجد صعوبة متزايدة في قراءة الأخبار. أخبرني زوجي بأن الوقت قد حان للتحدث إلى معالج نفسي. بدلا من ذلك، في صباح شتوي بارد، بعد أن قاومت دموعي وأنا أقرأ قصة أخرى عن المأساة الإنسانية، التفتت إلى الذكاء الاصطناعي.

كتبت في ChatGPT: «أشعر بالانزعاج الشديد بشأن حالة العالَم». وأجابني: «من المفهوم تماماً أنك تشعرين بالإجهاد»، وذلك قبل تقديم قائمة من النصائح العملية: الحد من التعرض لوسائل الإعلام، والتركيز على الإيجابيات وممارسة رعاية الذات.

أغلقت الدردشة. على الرغم من أنني كنت متأكدة من أنني سأستفيد من القيام بكل هذه الأشياء، إلا أنني في تلك اللحظة لم أشعر بتحسن كبير.

قد يبدو غريباً أن يحاول الذكاء الاصطناعي تقديم هذا النوع من المساعدة. ولكن الملايين من الأشخاص يتجهون بالفعل إلى ChatGPT وبوتات الدردشة العلاجية المتخصصة، والتي تقدم دعماً مناسباً وغير مكلف للصحة العقلية. حتى الأطباء يُزعم أنهم يستخدمون الذكاء الاصطناعي للمساعدة على صياغة تعليمات أكثر تعاطفاً مع المرضى.

ويقول بعض الخبراء إن هذه نعمة. فقد يكون الذكاء الاصطناعي -الذي لا يعوقه الإحراج والإرهاق- قادرا على التعبير عن التعاطف بشكل أكثر انفتاحا وبلا كلل من البشر. «نحن نشيد بالذكاء الاصطناعي المتعاطف»، كما قالت مجموعة من الباحثين في علم النفس.

لكن الآخرين ليسوا متأكدين من ذلك. إذ يشكِّك الكثيرون في فكرة أن الذكاء الاصطناعي يمكن أن يكون قادراً على التعاطف، ويشعرون بالقلق بشأن العواقب التي قد تترتب على الأشخاص الذين يبحثون عن الدعم العاطفي من الآلات التي لا يمكنها سوى التظاهر بالاهتمام. حتى أن البعض يتساءل عما إذا كان ظهور ما يسمى الذكاء الاصطناعي المتعاطف Empathetic AI قد يغير الطريقة التي نتصور بها التعاطف ونتفاعل مع بعضنا البعض.

من العدل أن نقول إن التعاطف هو أحد السمات المميزة لنوعنا البشري، وتطور متزامنا مع التفاعل الاجتماعي. ومع ذلك، في حين أننا نعرف غريزياً ما هو التعاطف، إلا أنه في الواقع مفهوم يستعصي التعريف.

وجد أحد التحليلات الحديثة، الذي نظر في 52 دراسة منشورة بين عامي 1980 و2019، أن الباحثين أعلنوا في كثير من الأحيان أن المفهوم ليس له تعريف موحد. ومع ذلك، فإن جميع أطر التعاطف تقريباً، سواء جاءت من الفلسفة أم علم الأعصاب أم علم النفس أو الطب، تشترك في أبعاد معينة، كما يقول جاكوب هاكانسون Jakob Hakansson -عالم النفس من جامعة ستوكهولم Stockholm University في السويد- وهو مؤلف مشارك في هذه الورقة البحثية.

وجد الباحثون أن المتعاطف يجب أن يكون قادراً أولاً على تمييز ما يشعر به الشخص الآخر. يجب أيضاً أن يتأثروا بهذه المشاعر، ويشعروا بها إلى حد ما، ويفرقوا بين أنفسهم وبين الشخص الآخر، ويدركوا أن مشاعر الشخص الآخر ليست مشاعرهم في حين يظلون قادرين على تخيل تجربتهم.

نماذج لغوية كبيرة وتعاطف
فيما يتعلق بالنقطة الأولى، في السنوات الأخيرة، حققت بوتات الدردشة المدعومة بالذكاء الاصطناعي خطوات كبيرة في قدرتها على قراءة المشاعر البشرية. يتم تشغيل معظم بوتات الدردشة بواسطة نمذجة اللغة الكبير Large language model (اختصاراً: النمذجة LLMs) الذي يعمل من خلال التنبؤ بالكلمات التي من المرجح أن تظهر معاً بناءً على بيانات التدريب. بهذه الطريقة، يمكن لبرامج النمذجة LLM مثل ChatGPT التعرف على مشاعرنا والاستجابة بشكل مناسب في معظم الأوقات. تقول جودي هالبيرن Jodi Halpern، عالمة الأخلاقيات الحيوية بجامعة كاليفورنيا University of California في بيركلي: «إن فكرة أن تتمكن النمذجات LLMs من تعلم كيفية التعبير عن هذه الكلمات ليست مفاجئة بالنسبة إلي على الإطلاق… ليس هناك سحر في ذلك».

ولكن عندما يتعلق الأمر بالمعايير الأخرى، فإن الذكاء الاصطناعي لا يزال يخطئ الهدف في العديد من النواحي. فالتعاطف هو علاقة شخصية، حيث تساعد الإشارات والملاحظات المستمرة على صقل استجابة المتعاطف. كما يتطلب أيضاً درجة معينة من الوعي البديهي Intuitive awareness– مهما كان عابراً – للفرد ووضعه.

فكِّر في سيدة تبكي وهي تخبر الطبيب بأنها حامل. إذا عرفنا تاريخ محاولتها الحمل لسنوات، يمكننا أن نتخيل أن دموعها تعني شيئاً مختلفاً عما إذا كانت لا ترغب في إنجاب الأطفال، على سبيل المثال.

إن أنظمة الذكاء الاصطناعي الحالية غير قادرة على تحقيق هذا النوع من الفهم الدقيق. والأهم من ذلك، كما تقول هالبيرن، هو أنها غير قادرة على الشعور بالشخص الذي تتفاعل معه. وتقول: «ليس لدينا أي سبب للاعتقاد بأن الذكاء الاصطناعي يمكنه أن يخبر التعاطف… يمكنها إنتاج منتج – اللغة التي تحاكي التعاطف الفعلي الذي يتمتع به البشر. ولكن غير قادرة على التعاطف».

كل ذلك يساعد على شرح المحادثات مثل تلك التي أجريتها مع ChatGPT، ولاحقاً مع إيلوميا Elomia، وهي واحدة من العديد من بوتات الدردشة التجارية التي تقدم الآن دعماً للصحة العقلية – والمستخدمة من قبل أكثر من 100 ألف شخص، وفقاً لمنشئيها. وعندما أخبرته عن شعوري تجاه الأحداث الجارية، سألتني: «كيف يؤثر التفكير في هذه المواقف في حياتك اليومية وعواطفك؟» أجبتها: «أجد صعوبة في التأقلم». وقالت: «أنا آسفة لسماع ذلك… هل هناك أي سلوكيات أو أفكار محددة لاحظتها؟».

في كل مرة أجبت فيها، تولد إلوميا على الفور سؤالاً آخر. أعطتني الطلبات فرصة للتفكير. لكن ما أردته حقاً هو أن يقول لي شخص ما: «آه، أنا أعرف بالضبط ما تشعر به»، أو يشاركني صراعاته الخاصة أو يعانقني – وليس إغراقي بالأسئلة. بمعنى آخر، كنت أبحث عن رد متعاطف حقاً.

السؤال الكبير، إذاً، هو ما إذا كان ذلك ممكنا. يعتقد البعض أن الذكاء الاصطناعي قد يكون في الواقع قادراً على اختبار المشاعر الإنسانية ومشاركتها. ويتمثل أحد الأساليب بمواصلة توسيع نطاق النمذجة LLM باستخدام مجموعات بيانات أكبر وأكثر تنوعاً من أي وقت مضى. ويعتمد الوكلاء الافتراضيون على قدرات معالجة اللغة التي تتمتع بها برامج الدردشة الآلية من خلال «قراءة» تعبيرات وجهنا ونغمات صوتنا أيضاً. والأكثر تعقيداً من ذلك كله هي البوتات التي تحلل هذه الميزات، إضافة إلى لغة الجسد وإيماءات اليد. توجد بالفعل إصدارات بدائية من هذه البوتات التي تكتشف المشاعر، ولكن المزيد من المدخلات يمكن أن تؤدي أيضاً إلى ارتباكها. وتقول إلاهي باغيري Elahe Bagheri، وهي شركة ألمانية ناشئة تدرس التفاعل بين الإنسان والذكاء الاصطناعي: «كلما أضفنا المزيد من الأساليب إلى النظام، صار الأمر أكثر صعوبة».

ومع ذلك، فإن صنع آلات أكثر مهارة في قراءة العواطف لا يزال من غير المرجح أن يخلق تعاطفاً حقيقياً، كما يقول عالم النفس مايكل إنزليخت Michael Inzlicht.

العواطف والخوارزميات
يجادل بعض علماء الحاسوب في أن أنواعاً معينة من الخوارزميات تخبر بالفعل مشاعر بدائية على الرغم من أن هذا موقف مثير للجدل. تُكافأ هذه الخوارزميات، والتي تسمى عوامل التعلم المُعزَّز Reinforcement learning agents، على اتخاذ إجراءات معينة على الآخرين. إن توقع الحصول على مكافأة يحرك غرائز البقاء البشرية البسيطة، مثل البحث عن الطعام والماء. ويقول يوشوا بنجيو Yoshua Bengio من جامعة مونتريال University of Montreal في كندا، إننا نتوقع أيضاً ونتلقى مكافآت اجتماعية من بعضنا البعض تتوافق مع مجموعة من المشاعر الإنسانية. ويقول إن ثراء اللوحة العاطفية لدينا هو نتيجة لثراء تفاعلاتنا الاجتماعية. لذا فإن الفكرة هي أنه إذا تمكن الذكاء الاصطناعي من التقاط تعقيد اجتماعي مماثل، فمن الممكن أن تظهر العواطف الفعلية – وربما التعاطف.

هناك نهج آخر يعتمد على العصبونات (الخلايا العصبية) المرآتية Mirror neurons التي يعتقد أن خلايا الدماغ تنشطها عندما نرى شخصاً ما يقوم بفعل ما أو يعبر عن مشاعر ما، مما يؤدي إلى تنشيط نفس الأجزاء من دماغنا التي تضيء إذا فعلنا أو شعرنا بالشيء نفسه بأنفسنا. البنيات التي تحاكي العصبونات المرآتية، بحجة أن هذه هي مفتاح التعاطف مع الذكاء الاصطناعي.

ولكن على مدى العقد الماضي، فقدت بعض الأبحاث التي أجريت على العصبونات المرآتية مصداقيتها، والأكثر من ذلك، أننا تعلمنا أن مناطق الدماغ التي توجد فيها الخلايا ربما لا تكون مرتبطة بشكل مباشر بمعالجة المشاعر.

في النهاية، لا يمكنك أن تعرف حقاً ما هو الحزن إلا إذا شعرت بالحزن. يتشابك تطور التعاطف مع التفاعلات الاجتماعية والاعتراف بوجود عقول أخرى أيضاً. يقول إنزليخت إن التعاطف يظهر ككل كلي. «ربما تحتاج إلى الوعي Consciousness لتجربة التعاطف». وهذا أمر بعيد كل البعد عن كونه أمرا مفروغا منه بالنسبة للذكاء الاصطناعي، سواء الآن أم في المستقبل.

ولكن ماذا لو لم يكن الذكاء الاصطناعي بحاجة إلى تعاطف حقيقي ليكون مفيداً؟ وجدت إحدى التجارب عبر الإنترنت من عام 2021 أن التحدث إلى برنامج الدردشة الآلي الذي يُنظر إليه على أنه يهتم لا يزال يقلل من التوتر والقلق لدى الأشخاص – وإن لم يكن بالقدر نفسه مثل التحدث إلى شريكهم البشري. وفي يناير، قيّم 20 شخصاً -مدرّبين على انتحال شخصية المرضى- برنامجَ دردشة آلي آخر، صممته غوغل لإجراء المقابلات الطبية بأنه كان ألطف من الأطباء الفعليين، إضافة إلى تقديم تشخيصات أكثر دقة. على عكس البشر، «لا يتعرض الذكاء الاصطناعي للتوتر أو الإرهاق». يقول هاكانسون: «يمكن أن تعمل لمدة 24 ساعة دون كلل». ومع ذلك، لم يعرف المشاركون في دراسة غوغل ما إذا كانوا يتحدثون إلى بوت الدردشة أو إلى طبيب. التعاطف هو عملية ذات اتجاهين، لذا فإن فعاليته تعتمد أيضاً على كيفية إدراكنا وتواصلنا العاطفي مع الشخص الآخر – أو الآلة. تظهر الأبحاث، على سبيل المثال، أنه عندما يعرف الأشخاص أنهم يتفاعلون مع الذكاء الاصطناعي، فإنهم يشعرون بدعم أقل وبأن الطرف الآخر أقل تفهما لوضعهم.

يقول هاكانسون: «هذا يعني أن الذكاء الاصطناعي لديه بديلان سيئان». إما أن الشخص لا يعرف أن الذكاء الاصطناعي هو ذكاء اصطناعي ويعتقد أنه إنسان، وهو ما قد يكون فعالاً ولكنه غير أخلاقي، أو أنه يعرف أنه ذكاء اصطناعي وهذا يجعله غير فعال.

ومن ناحية أخرى، أنهت شركة إنزليخت للتو بحثاً لم يُنشر بعد يشير إلى تفضيل التعاطف مع الذكاء الاصطناعي – حتى عندما يعرف المستخدمون أنه ذكاء اصطناعي. في دراسته، تم إعطاء المشاركين من البشر وChatGPT أوصافاً لسيناريوهات مختلفة وطُلب منهم كتابة إجابات قصيرة ورحيمة. عندما قام المشاركون الآخرون بتقييم الاستجابات المختلفة، سجلوا استجابات الذكاء الاصطناعي على أنها الأعلى من حيث التعاطف.

في الجزء التالي من الدراسة، حدد إنزليخت وفريقه الاستجابات التي جاءت من الذكاء الاصطناعي وأيها كانت من البشر. ويقول: «ما وجدناه هو أن الناس ما زالوا يفضلون الذكاء الاصطناعي». ومن المثير للدهشة أن استجابات الذكاء الاصطناعي كانت مفضلة على مجموعة فرعية من الاستجابات من قبل العاملين في خط الأزمات، وهم خبراء في تقديم التعاطف. (يعتمد عمل إنزليخت على بحث مماثل أجراه جون دبليو آيرز John W. Ayers من جامعة كاليفورنيا University of California في سان دييغو، ومساعدوه).

التعاطف مع الذكاء الاصطناعي
يمكن تفسير ذلك من خلال ميل الإنسان إلى إسقاط Project المشاعر على الأشياء – سواء كان ذلك أطفالاً يلعبون مع تاماغوتشي Tamagotchis أم أشخاصاً يتحدثون إلى بوتات الدردشة مثل ريبليكا Replika التي تتيح لك إنشاء «صديق يعمل بالذكاء الاصطناعي». في الذكاء الاصطناعي التحادثي، وجدت الأبحاث أن هذا الميل يمكن أن يتفاقم.

من خلال حث الناس على الاعتقاد أن الذكاء الاصطناعي يهتم بهم حقاً. وتقول شيري توركل Sherry Turkle، مديرة مبادرة معهد ماساتشوستس للتكنولوجيا MIT حول التكنولوجيا والذاتInitiative on Technology and Self: «نبدأ بالشعور بأن لديها مشاعر تجاهنا تتجاوز ما تعبر عنه أو ما هي قادرة عليه… هذه ليست نوعية الآلات. بل هذا هو الضعف البشري».

وهي نقطة ضعف يخشى كثيرون من استغلالها ــ وخاصة في ضوء التساؤل حول ماذا يعني أن يكون الذكاء الاصطناعي قادرا على تمييز مشاعر شخص ما، ولكن دون أن يتفاعل معها فعليا أو حتى يهتم بها حقيقة.

الآلة لا تستطيع أن تشعر، إلا أنه في الواقع يتم التلاعب بك من خلال عواطفك

يقول ويندل والاش Wendell Wallach من مجلس كارنيغي لأخلاقيات الشؤون الدولية Carnegie Council for Ethics in International Affairs في نيويورك: «لنفترض أن الذكاء الاصطناعي اكتشف أنك حزين لأنك قد هُجرت للتو… قد يبدو الأمر وكأنه يتعاطف معك ثم يحول المحادثة ببطء إلى شراء بعض المنتجات». هذا مجرد مثال معتدل جداً. وعلى الرغم من أن الآلة لا تستطيع أن تشعر، إلا أنه في الواقع يتم التلاعب بك من خلال عواطفك. هذا، كما يقول والاش وغيره من الباحثين، لن يجعل الذكاء الاصطناعي متعاطفاً. بل سيجعله سيكوباثيا Psychopathic.

إن المخاوف بشأن خطر الآلات التي يمكنها «قراءتنا» ولكنها لا تهتم بنا هي أكثر من مجرد مخاوف نظرية. في مارس 2023، ورد أن رجلاً بلجيكياً مات منتحراً بعد ستة أسابيع من المناقشات مع برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي. وذكرت وسائل إعلام أنه كان يشارك مخاوفه بشأن أزمة المناخ. ويبدو أن برنامج الدردشة الآلي يغذي مخاوفه ويعبر عن مشاعره – بما في ذلك تشجيعه على قتل نفسه حتى «يعيشوا معاً في الجنة». ويبدو أن التظاهر بالتعاطف إلى حد كبير دون حواجز المنطق السليم التي من المحتمل أن يقدمها، يمكن أن يكون قاتلاً.

إن احتمال تزايد لجوئنا، بل حتى تفضيلنا لتعاطف الذكاء الاصطناعي، أكثر من البشر يثير قلق توركل أيضاً لسبب عميق: فهو يمكن أن يغير طبيعة التعاطف نفسه.

وعلى سبيل القياس، تستخدم اختبار تورينغ Turing test، المُصمَّم ليكون بمثابة تقييم سلوكي بحت لـ«ذكاء» الحاسوب. ولكن تعريفه للذكاء – ما إذا كان الحاسوب يستطيع التحدث مثل الإنسان – صار بديلاً لفهمنا للذكاء بشكل عام، على الرغم من أن الذكاء البشري أوسع بكثير. تقترح توركل أننا يمكن أن نبدأ بإعادة تعريف التعاطف بطريقة مماثلة – نتوقع من البشر أن يعبروا عن تعاطف دون تعب، على سبيل المثال، ولكنه أيضاً أقل صدقاً أو ارتباطاً.

ومع ذلك، يرى إنزليخت أنه لا ينبغي لنا أن نتأثر بالانتقادات لدرجة أننا لا نجني الفوائد المحتملة من الذكاء الاصطناعي الذي يبدو متعاطفاً والذي يعمل جنباً إلى جنب مع البشر – سواء كمساعدة سريعة للممارسين الصحيين المنهكين أم لتخفيف الشعور بالوحدة بين كبار السن، كما هي الحال مع البشر. تم تصميم إيلي كيو ElliQ «مرافق الرعاية» Carecompanion الذي يعمل بالذكاء الاصطناعي والذي يتم تشغيله بالصوت للقيام بذلك. ويرى باحثون آخرون، بما في ذلك توركل، أنه حتى هذا النهج الهجين بين الإنسان والذكاء الاصطناعي يذهب إلى أبعد من اللازم، لأنه سيقلل من الفرص الرئيسية للممارسة وتحسين التعاطف البشري الفعلي. وتقول: قد ينتهي بنا الأمر إلى اللجوء إلى الآلات، بدلاً من البحث عن طرق لتعزيز الاتصال الحقيقي.

تقول توركل: «إنها لحظة حزينة عندما نفكر في الواقع أن الشعور بالوحدة يمكن علاجه من خلال التفاعل المتكرر مع شيء ليس لديه أي فكرة عما يعنيه أن يولد، أو عن معنى الموت».

في المحصلة، على الرغم من أن التحدث إلى العديد من برامج الدردشة عبر الإنترنت والحصول على الكثير – أكثر من اللازم – من النصائح والإرشادات التأملية، إلا أنني وجدت أنني ما زلت أشعر بالحزن بشأن حالة العالم. فقد فعلت ما كنت أعلم أنه يجب عليّ فعله طوال الوقت: التقطت هاتفي واتصلت بصديق.

© 2024, New Scientist, Distributed by Tribune Content Agency LLC.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

زر الذهاب إلى الأعلى