أحد صفحات التقدم العلمي للنشر
Advertisement
تحليل

لماذا يتجاهل بعض باحثي الذكاء الاصطناعي المخاطر المحتملة على البشرية؟

من المسلم به أن المخاطرة الوجودية من الذكاء الاصطناعي هي تخمينية أكثر من المخاوف الماثلة بالفعل والملحة مثل تحيزها، لكن الحل الأساسي هو نفسه. يقول ديفيد كروغر طال انتظار مناقشة الموضوع في حوار عام وعميق

بقلم ديفيد كروغر

في مؤتمر صحافي عقده البيت الأبيض مؤخراً، لم تستطع السكرتيرة الصحافية كارين جان بيير Karine Jean-Pierre أن تكتم ضحكها عند سؤالها: هل من «الجنون» القلق من أن «يموت كل شخص على وجه الأرض» بسبب الذكاء الاصطناعي Artificial intelligence (اختصاراً: الذكاء الاصطناعي AI)؟ وللأسف، فإن الجواب هو لا.

بينما حذر رواد الذكاء الاصطناعي AI، مثل آلان تورينغ Alan Turing، من أنه يجب أن نتوقع «سيطرة الآلات»، يقلل العديد من الباحثين المعاصرين من شأن هذا القلق. في عصر النمو غير المسبوق في قدرات الذكاء الاصطناعي، لماذا لا يدلي المزيد من الخبراء بدلوهم في ذلك؟

يجب أن يكون لدى الباحثين أسباب وجيهة لعدم القلق بشأن خطر الانقراض البشري

قبل ثورة التعلم العميق Deep-learning revolution في عام 2012، لم أكن أعتقد أن الذكاء الاصطناعي AI على المستوى البشري سوف يظهر في حياتي. كنت على دراية بالحجج القائلة إن أنظمة الذكاء الاصطناعي AI ستسعى بلا هوادة إلى السيطرة وتقاوم إغلاقها – وهو تهديد واضح للبشرية إذا حدث ذلك. لكنني اعتقدت أيضاً أنه يجب أن يكون لدى الباحثين أسباب وجيهة لعدم القلق بشأن خطر الانقراض البشري (الخطر AI-x) x-risk بفعل الذكاء الاصطناعي AI.

ومع ذلك، بعد عشر سنوات في هذا المجال، أعتقد أن الأسباب الرئيسية ثقافية وتاريخية. بحلول عام 2012، بعد العديد من دورات الضجيج التي لم تنجح في أن تسود على الموقف، توقف معظم باحثي الذكاء الاصطناعي AI عن السؤال «ماذا لو نجحنا في تكرار الذكاء البشري؟»، وحصروا طموحاتهم في مهام محددة مثل القيادة الذاتية.

عندما عادت المخاوف إلى الظهور خارج مجتمعهم، كان الباحثون أسرع من اللازم في رفض آراء الغرباء من خارج المجال على أنهم جهلاء، وأن مخاوفهم لا تعدوا أن تكون خيالاً علمياً. لكن من واقع خبرتي، فإن باحثي الذكاء الاصطناعي AI غالباً ما يجهلون الحجج التي تدعم مخاطر الذكاء الاصطناعي AI.

إحدى الحجج الأساسية هي مستمدة بالقياس Analogy: لقد سمحت لنا القدرات المعرفية للبشر بالتغلب على الأنواع الحية Species الأخرى من أجل الموارد، مما أدى إلى العديد من الانقراضات. وبالمثل، يمكن لأنظمة الذكاء الاصطناعي AI أن تحرمنا من الموارد التي نحتاج إليها لبقائنا على قيد الحياة. بشكل أقل تجريداً، يمكن للذكاء الاصطناعي AI أن يحل محل البشر اقتصادياً، ومن خلال سلطاته في التلاعب، سياسياً.

لكن ألن يكون استخدام البشر للذكاء الاصطناعي AI كأدوات هم من يتحكمون في النهاية؟ ليس بالضرورة. قد يختار العديد من الأشخاص تطبيق نظام لديه فرصة بنسبة 99% في جعلهم أثرياء وأقوياء بشكل هائل، حتى ولو كانت للنظام فرصة 1% للهروب من سيطرتهم وقتل الجميع.

نظراً لعدم وجود تجربة آمنة يمكن أن تخبرنا بشكل قاطع ما إذا كان نظام الذكاء الاصطناعي AI سيقتل الجميع بالفعل، غالباً ما يتم تجاهل هذه المخاوف باعتبارها غير علمية. لكن هذا ليس عذرا لتجاهل المخاطر. إنه يعني فقط أن المجتمع يحتاج إلى التفكير فيها بالطريقة نفسها التي يفكر فيها في القضايا الاجتماعية المعقدة الأخرى. ويؤكد الباحثون أيضاً على صعوبة التنبؤ بالوقت الذي قد يتفوق فيه الذكاء الاصطناعي AI على الذكاء البشري، لكن هذه حجة للحذر وليس بدافع الرضا عن الذات.

والمواقف Attitudes آخذة بالتغير، لكن ليس بالسرعة الكافية. من المسلم به أن الخطر AI-x هو خطر تخميني أكثر بكثير من القضايا الاجتماعية المهمة الناجمة من الذكاء الاصطناعي AI في الوقت الحاضر، مثل التحيز والمعلومات الخاطئة، لكن الحل الأساسي هو نفسه: التشريعات التنظيمية Regulation. فقد طال انتظار مناقشة الموضوع مناقشة عامة وعميقة. ومن خلال رفض المشاركة، يتجاهل بعض باحثي الذكاء الاصطناعي AI المسؤوليات الأخلاقية ويخونون ثقة الجمهور.

ترعى شركات التكنولوجيا الكبيرة أبحاث أخلاقيات الذكاء الاصطناعي AI عندما لا تضر النتائج بأرباحها. لكنها تضغط أيضاً لاستبعاد الذكاء الاصطناعي AI للأغراض العامة من لوائح الاتحاد الأوروبي European Union (اختصاراً: الاتحاد EU). دعا الباحثون المهتمون مؤخراً إلى التوقف مؤقتاً عن تطوير نمذجات أكبر للذكاء الاصطناعي AI للسماح للمجتمع باللحاق بالركب. ويقول النقاد إن هذا ليس واقعياً من الناحية السياسية، لكن مشكلات من الخطر AI-x لن تختفي لمجرد أنها غير ملائمة سياسياً.

يقودنا هذا إلى أبشع سبب قد يجعل الباحثين يرفضون مخاطر الذكاء الاصطناعي X: التمويل. في الأساس، تلقى كل باحث في مجال الذكاء الاصطناعي (بما في ذلك أنا) تمويلاً من شركات التكنولوجيا الكبرى. في مرحلة ما، قد يتوقف المجتمع عن تصديق التطمينات من الأشخاص الذين لديهم تضارب قوي في المصالح، ويستنتج، كما قلت، أن رفضهم ينمُّ عن التمني Wishful thinking بدلاً من الحجج المضادة الجيدة. 

© 2023, New Scientist, Distributed by Tribune Content Agency LLC

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

I agree to these terms.

زر الذهاب إلى الأعلى