أحد صفحات التقدم العلمي للنشر
ذكاء اصطناعي

مقابلة مع كيت كرافورد: كيف يستغلُ الذكاءُ الاصطناعيُّ الأشخاصَ والكوكبَ

فيما وراء عناوين الأخبار الرئيسية عن الإنجازات العلمية الخارقة، فإن الذكاء الاصطناعي مجمعٌ صناعيٌ عالمي قائم بذاته. وبعد أن استكشَفَتْ كيت كروفورد من ميكروسوفت ريسيرش تأثيراتِه السياسيةَ والاجتماعيةَ، تركزُ الآن على البنيةِ التحتيةِ التي يقوم عليها الذكاء الاصطناعي

بقلم: تيموثي ريفيل

ترجمة: محمد الرفاعي

الذكاء الاصطناعي Artificial Intelligence (اختصارا: الذكاء الاصطناعي AI) موجودٌ في كل مكانٍ حالياً، من المساعد الافتراضي أليكسا Alexa في مطبخِكَ إلى الخوارزميات التي تقررُ مدى ملاءَمَتِكَ لوظيفةٍ أو رهنٍ عقاري. ولكن ما الذكاء الاصطناعي بالضبط؟ التعريف مهمٌ لأنه يحددُ إلى قدرٍ كبيرٍ الكيفية التي نفكر بها في تأثير الذكاء الاصطناعي.

   إذا كان الذكاء الاصطناعي AI شيئاً يتفوق على البشر بحكم التعريف، فمن المنطقي أن نثق به لتحديد الأشخاص الذين يجب إيقافُهم والبحثُ عنهم بتقنية التعرف على الوجه Facial recognition، على سبيل المثال، أو لإصدارِ أحكامٍ لتحديد الجناة الذين يجب أن يخضعوا للمراقبة. أما إذا كان الأمرُ يتعلق فقط بالخوارزميات، فسيكون من الأسهل كثيراً أن ننحي جانباً قضايا التحيزِ والظلمِ باعتبارها مجرد مشكلاتٍ تقنيةٍ.

   تُلقي كيت كروفورد Kate Crawford نظرةً أوسع على الموضوع. فقد شاركتْ في تأسيس معهد الذكاء الاصطناعي الآن AI Now Institute في جامعة نيويورك New York University وهي باحثةٌ في ميكروسوفت ريسيرش Microsoft Research والمدرسة العليا للأساتذة École Normale Supérieure في باريس Paris، وقد أمضتْ الجزء الأكبر من عقدين من الزمن في البحث في التأثيرات السياسية والاجتماعية للذكاء الاصطناعي AI .  ففي كتابها الجديد أطلس الذكاء الاصطناعي Atlas of AI، تبحث أيضاً في البنية التحتية العالمية التي تدعم صعود هذه التكنولوجيا.

   وتُحاججّ في أن الذكاء الاصطناعيAI  بعيدٌ عن كونه شيئاً مجرداً وموضوعياً، فهو مادي ومرتبطٌ جوهرياً ببنى السلطة. إذ تتضمن طريقة صنعه سحبَ الموارد من الأشخاص والكوكب، وتعكسُ طريقةُ استخدامه معتقداتِ وتحيزاتِ أولئك الذين يستخدمونه. وتقول كروفورد إننا سنكون قادرين على رسم مستقبلٍ عادلٍ ومستدامٍ مع الذكاء الاصطناعيAI  فقط حين نتقبلُ هذا.

تيموثي ريفيل Timothy Revell: ما الذكاء الاصطناعي؟

كيت كروفورد: أفكرُ في الأمر من ثلاث نواحٍ. من الناحية التقنية، إنه نظامٌ إيكولوجي من التقنيات التي يمكننا وضعها في خانة تعلم الآلة Machine learning. ثانياً، يتعلق الأمر بالممارسات الاجتماعية: من الذي يصممُ الأنظمةَ ومن الذي يقررُ المشكلاتِ التي يجب حلها. وأخيراً هناك البنية التحتية، وهي عمليةُ جمع البيانات واسعةُ النطاقِ وتحديدُ إلى أين تتجه.

لماذا نميل إلى التركيز على التكنولوجيا بحد ذاتها بدلاً من تأثيراتها؟

هناك ميلٌ إلى أن يعمينا وهج الابتكار. ففي سبعينات القرن العشرين لاحظَ جوزيف ويازينباوم Joseph Weizenbaum، الذي أنشأ أول بوتُ محادثةٍ  Chatbotعلى الإطلاق، واسمه إليزا Eliza، أن الأشخاص كانوا مستعدين تماماً للانخداع بالوهم القوي بأن أنظمة الذكاء الاصطناعيAI  كانت صناديق تقنيةً مستقلةً تماماً يمكنها التعامل معنا بوصفها كياناتٍ مستقلةٍ. وقال إن هناك فخاً سنقع فيه، إذ إننا نركّز كثيراً على الابتكار التقني لا على التأثيرات الاجتماعية الأعمق التي قد تحدثها هذه الأنظمة. فقد كتبَ ويازينباوم حول هذه القضايا في منتصف سبعينات القرن العشرين، لكننا لم نتعلمْ هذا الدرس حتى الآن.

في كتابكِ الجديد قلتِ إن الذكاء الاصطناعي ليس اصطناعياً ولا ذكياً. ماذا تقصدين بذلك؟

عندما يفكر الأشخاص في الذكاء الاصطناعيAI ، فإنهم غالباً يفكرون في الشيفرة الثنائية Binary code والرياضيات، أو شيءٍ أثيري وفي السحابة Cloud، أو قد يفكرون في سلسلةٍ من منتجات الشركات مثل أليكسا Alexa، أو سيري Siri، أو خوارزمية بحث غوغل Google. ولكن لا شيء من هذه الأشياء اصطناعي ـ بل هو في الواقع ماديٌ بصورةٍ عميقةٍ. ولن يعمل إلا بكمياتٍ كبيرةٍ من البيانات المأخوذة من الإنترنت، وبالاستخراج قدر هائل من الموارد، بما في ذلك المعادن والطاقة والعمالة البشرية الضرورية لتصنيف البيانات التي تستخدمها أنظمة الذكاء الاصطناعي. وبهذا المعنى، فإن الذكاء الاصطناعيAI  هو نظامٌ مادي يأتي إلى حدٍ كبيرٍ من البشر، وأنشأه البشر، وعلى نطاقٍ أوسع ينبع من الأرض.

   بعد ذلك لنفكرْ في الذكاء. هناك فخ، فمنذ الأيام الأولى للذكاء الاصطناعيAI  افترضنا أن أجهزة الحاسوب تشبه العقل البشري. كتبتْ الكاتبةُ والمهندسة إيلين أولمانEllen Ullman ذات مرةٍ أن الاعتقادَ أن العقل مثل الحاسوب، والعكس صحيح، قد أفسدَ التفكيرَ في علوم الحاسوب لفترةٍ طويلة حتى صار مثل الخطيئة الأصلية. فلم نعدْ ننظرُ في كيفية اختلاف هذه الأنظمة عن الذكاء البشري. إنها تجري تحليلاً إحصائياً على نطاقٍ واسعٍ، وهذا مفيدٌ جداً لبعض الأشياء. لكن لنكن واضحين حقاً: إنه ليس مثل الذكاء البشري.

كيف يسببُ الاعتقادُ في أن الذكاء الاصطناعي مثل الذكاء البشري المشكلاتِ؟

إحدى الظواهر التي ناقشتُها في كتابي هي فكرةُ الحتمية المسحورة Enchanted determinism، وهي الاعتقاد أن هذه الأنظمة سحريةٌ ويمكنها في الوقت نفسه أن تقدّمَ رؤى عميقة عنا نحن جميعاً بطرقٍ خارقةٍ. هذا يعني أننا لا نعتقدُ أنّ هذه الأنظمة قد تنتجُ أشكالاً من التحيز والتمييز. كما أننا لا نركزُ على الطرق التي أُنْشِأتْ بها، وعلى محدوديتها.

ما الذي تعلمتِه عن كيفية تصنيع المنتجات التي تستخدم الذكاء الاصطناعي، وتأثير ذلك في الأشخاص والبيئة؟

كان أحد أكثر المشروعات التي عملتْ عليها التي فتحتْ عيني هو “تشريح نظامِ ذكاءٍ اصطناعي” Anatomy of an AI System مع فيلان جولر Vladan Joler من جامعة نوفي ساد University of Novi Sad في صربيا. فقد تتبعنا دورةَ حياةِ جهاز أمازون إيكو Amazon Echo، وهو نظامُ ذكاء اصطناعيAI  يدعمُ المحادثة الصوتية. وقد كان من اللافت للنظر مدى صعوبة تتبعِ مصدرِ جميعِ المكونات المستخدمة فيه، ودراسةِ الطرقِ التي تُجْمَعُ بها البيانات المُسْتَخْدَمَةُ وتُعالَج، وصولاً إلى الأجهزة التي يُتَخَلَصُ منها في مقالب النفايات الإلكترونية في بلدانٍ مثل غانا وباكستان.

   ألهمني هذا المشروع للنظر نظرةً أعمق إلى المسارات اللوجستية الكاملة وسلاسل التوريد Supply chains لصناعة الذكاء الاصطناعيAI . ويتطلبُ الذكاءُ الاصطناعيAI  الكثيرَ من البنية التحتية الصناعية. وعندما بدأتُ البحثَ من أجل الكتاب، بدأتُ بالتركيز على الأجهزة. ولكن في الأعوام القليلة الماضية، تعلّمنا جميعاً الكثيرَ عن استهلاك الذكاء الاصطناعيAI  الكبيرِ للطاقة. فأنظمةٌ متطورةٌ مثل أوبين إيه آي جي بي تي-3 OpenAI’s GPT-3، وهو نموذجٌ لغوي ينتجُ نصاً شبيهاً بما ينتجه البشر، تستهلكُ قدراً كبيراً من الطاقة. وله بصمةٌ كربونيةٌ Carbon footprint كبيرةٌ وعلينا مواجهتها. اجمعْ ذلك مع استغلال العمال الواقع في مراكز العمل بالقطعة الرقميةِ مثل أمازون ميكانيكال تورك Amazon Mechanical Turk، وستتضح لك الإطار الذي يمكن من خلاله فهمُ الذكاء الاصطناعيAI  كصناعة واستخراجية.

أنتِ تقولين إنه سياسي بطبيعته أيضاً. كيف ذلك؟

الذكاء الاصطناعيAI  سياسيّ في كافة مراحله. من الطريقة التي تُجْمَعُ بها البيانات، إلى التصنيف المؤتمَتِ للخصائص الشخصية مثل الجنسِ، أو العرقِ، أو العاطفةِ، إلى الطريقة التي تُبنى بها هذه الأدواتُ، ومن يتحمل الجوانب السلبية.

   لقد رأينا مراراً وتكراراً أن الأشخاص المُهَمَّشين هم من يتعرضون لأسوأ الأضرار من أنظمة الذكاء الاصطناعي  واسعة النطاق Large-scale artificial intelligence systems . فقد رأينا مجتمعاتٍ ملونةٍ مُسْتَهْدَفَةً من قبل أنظمة الشرطة التنبُئِية Predictive policing system، ومهاجرين رُوقِبوا وتُعُقِبوا بواسطة أدوات الترحيل، وأشخاص ذوي إعاقاتٍ مُنِعوا من الحصول على خدمات الدعم بسبب خوارزميات الرعاية الصحية سيئة التصميم.

   أتفاءلُ حين أرى الأشخاص يطالبون بقدرٍ أكبرَ من العدالةِ والشفافيةِ والمساءلةِ. فقد رأينا احتجاجاتٍ طلابيةً واسعةَ النطاق في المملكة المتحدة ضد سوء الإدارة الخوارزمية في نظام التعليم، وشهدنا مقاومةً عامةً كبيرةً ضد أنظمة التعرف على الوجه في الولايات المتحدة.

هل نشهد أيضاً مقاومةً حكوميةً؟ فمثلاً، أعدّتْ الحكومة الأسترالية تشريعاتٍ تجعل شركات التكنولوجيا الكبرى تدفع مقابل المحتوى المأخوذ من المؤسسات الإخبارية، فردّ فيسبوك Facebook بإيقاف جميع الأخبار لفترةٍ وجيزة للأستراليين على منصته؟

كان من المروع رؤية ذلك. كانتْ هذه إشارةً أرسلها فيسبوك إلى العالم تقول: “إذا أقررتُم قوانين لا نحبها، فسنأخذ ألعابنا ونعود إلى المنزل”. وبالنظر إلى عدد الدول التي تتطلع الآن إلى إصدار أشكالٍ أكثرَ صرامةً من التنظيم على قطاع التكنولوجيا، يبدو الأمر كأنه نوعٌ مزعجٌ من تكتيكات الرجل القوي.

هل تختلف شركات التكنولوجيا عن الشركات الضخمة التي سبقتها؟

أدّتْ شركاتُ التكنولوجيا أدوارَ الدول فيما يتعلق بأشياء مثل توفيرِ البنيةِ التحتيةِ المَدَنية. ففيسبوك، على سبيل المثال، أنفقَ مبالغَ طائلةً لإقناع الجمهور بأنه المكان الذي يمكنك فيه التواصل مع العائلة، ويمكن لمجموعات الطلبة نشرُ معلوماتهم الشخصية. فهذا هو المكان الذي تتواصل فيه مع مجتمعاتك. ما كان من غير العادي رؤيته هو أن هذه البنية التحتية المَدَنية يمكن إيقافها في أي وقت. فقد تجاوزتْ قوةُ شركاتِ التكنولوجيا في بعض النواحي قوةَ الدولِ، وهذا أمرٌ نادرٌ جداً.

ما الذي يمكننا فعله للتعامل مع هذا الأمر؟

أمامنا طريقٌ طويل لنقطعه، لكنني في الحقيقة متفائلةٌ. فكّرْ في السيارة. لم يكن في السياراتِ أحزمةُ أمانٍ لعقودٍ، ولكن أُقِرّتْ الآن قوانينَ تفرض استخدامها في جميع أنحاء العالم. يمكنك أيضاً التفكير في الطريقة التي تتمتع بها بعض البلدان بقواعد سلامةِ أغذيةٍ صارمةٍ جداً، وهي ذاتُ تأثيرٍ حقيقي في حياة الأشخاص. علينا أن نتوصل إلى سياساتٍ مماثلةٍ للسيطرة على التأثيرات الضارة للذكاء الاصطناعيAI  .

فيما يخصُ التحيّز الموجود في الذكاء الاصطناعي والظُلْمِ الذي يُنتِجُه، هل ما نراه ليس إلا غيضاً من فيضٍ؟

إذا فكّرتَ في أشهر قصص التحيز في الذكاء الاصطناعيAI  على مدار العقد الماضي، فستجد أنها اكتُشِفَتْ بسبب باحث صحافيٍ، أو كاشفِ فسادٍ  Whistle-blower، أو باحثٍ اكتشف مشكلةً معينةً. ولكن هناك عدداً لا يُحْصَى من المشكلات التي لم يُعلَنْ عنها قطُّ، ولهذا السبب يجب أن نحوّل تركيزنا من فكرة أن التحيّز شيءٌ يَتَطَلَبُ إصلاحاً تقنياً إلى البحث في الطرق التي يُبنى فيها التمييز في الحمض النووي DNA لهذه الأنظمة، مثلا: مجموعات البيانات المُسْتَخْدَمَةِ لتدريبها.

ما أكثر استخداماتِ الذكاء الاصطناعي إشكاليةً التي تستشرفينها في المستقبل؟

أحد الأشياء التي أجدها مقلقةً بصورةٍ خاصةٍ هو ما يُسَمَى اكتشاف المشاعر Emotion detection. هناك شركاتٌ تستخدمُها في أدوات التوظيف، فإذا أجريتَ مقابلةَ عملٍ، فإنّ الحركاتِ الدقيقةَ لوجهك تُرْبَطُ بجميع أنواع التفسيرات لما قد تفكرُ فيه وتشعرُ به ـ وذلك غالباً في سياق المتقدمين الذين تجاوزوا المرحلة السابقة من اللقاءات. وإحدى المشكلات مثل ذلك هو في أنه سينتهي بك الأمر إلى توظيف أشخاصٍ يشبهون القوة العاملة الموجودة لديك شكلا وفكرا.

   كانتْ هناك أيضاً أداةٌ سُوّقَتْ لمراكز التسوق، وهي تنظرُ إلى وجوه الأشخاص لتحديد المشاعر التي تشير إلى أنّ الشخص على وشك السرقة من المتجر. ما البيانات التي تدربت عليها تلك الإدارة، وما الافتراضات حول ما يبدو عليه شخصٌ ما حين يسرق من المتاجر؟

هل تنجحُ التكنولوجيا التي يَعْتَمِدُ عليها اكتشافُ المشاعر؟

لقد قُوّضَتْ بالكامل تقريباً. إذ راجعت عالمةُ النفس ليزا فيلدمان باريت Lisa Feldman Barrett كل ورقةٍ بحثيةٍ كُتِبَتْ على الإطلاق حول هذا السؤال، ولم تجدْ أي ارتباطٍ بين تعبيرات وجهِكَ وحالتِكَ العاطفية الداخلية. وهو صراحةً ما يعرفه كل من التقطَ مصورٌ صورتَه وقال له “ابتسم”.

   ما هو مثيرٌ للاهتمام حقاً هو الكيفية التي صار بها الافتراضُ مترسخاً في مجالٍ مثل مجال تعلم الآلة. إنها مثال على مطابقة النظرية بما يتوافق مع الأدوات. يمكن أن يَنْظُرَ تعلم الآلة إلى حركات الوجه، ولذلك، إذا كانتْ النظريةُ تقولُ إن هناك مشاعرَ عالميةً يمكن اكتشافها من التعبيرات الدقيقة، فيمكن استخدام الذكاء الاصطناعيAI ، أو يُسَاءَ استخدامه. ويمكن أن ينتهي الأمر بتطبيقه في شيءٍ مهمٍ مثل التعليمِ أو العدالة الجنائيةِ.

عندما يتعلق الأمر بمستقبل الذكاء الاصطناعي، هل أنتِ متفائلةٌ أم متشائمةٌ؟

أنا متفائلةٌ متشككةٌ. أنا متفائلةٌ حول الطرق التي نفكر بها في الجيل المقبل من البنية التحتية المَدَنية. كيف نتأكدُ من أن البنى التحتية سوف تخدمنا حقاً، وبطرقٍ لا يمكن إيقافها في منتصف مفاوضاتٍ سياسيةٍ، كما رأينا مع فيسبوك وأستراليا؟

   وصلتْ المباحثاتُ حول التغيّر المناخي Climate change إلى نقطةٍ تعني أننا سنفكّر في تأثير الأنظمة التقنية في الكوكب من منظور الطاقة والموارد الطبيعية. أنا متفائلةٌ أيضاً بأن الذكاء الاصطناعيAI ، من بعض النواحي، سيسمح لنا بإجراء مباحثاتٍ حول الطريقة التي نريد أن نعيش بها. غالباً ما كانت هذه المباحثاتُ مجزأةً إلى حدٍ كبيرٍ. إذا كنتَ تفكرُ في المحادثات حول حقوقِ العمال، والعدالةِ المناخية، وحمايةِ البيانات، فقد كانتْ في الأساس محتواة في خاناتٍ منفصلةٍ تماماً، ولكن الذكاء الاصطناعي AI  الآن يتقاطع معها كلها. هذا هو الوقتُ المناسبُ لِجَمْعِ هذه القضايا معاً.

إذن، يمكن عكس التأثيرات الضارة للذكاء الاصطناعي، والتي لا تزال في مهدها؟

الشيءُ المهمُ الذي يجب تذكره هو أنه لا توجد تكنولوجيا حتمية. لا يعني مجرد تصميم شيءٍ ما أنه يجب تَسْخِيرُهُ على نطاقٍ واسعٍ. ولا يعني مجرد قيامنا بشيءٍ ما بطريقةٍ معينةٍ دائماً أنه لا يمكننا تغييره.

   وهذا هو الأمر الأكثر أهميةً حين نفكرُ في استغلال العمال، والتدهور البيئي، والحصاد الشامل للبيانات Mass harvesting، وكلها يمكن أن تكون ضارةً جداً. هذه كلها ممارساتٌ يمكن أن تتغير، ويشيرُ الإرثُ الكبيرُ للصناعة على مدى الـ 300 عام الماضية أو نحو ذلك إلى أن الصناعات قد تغيرّتْ بمجرد تنظيمها. يمكننا بالتأكيد إعادة صنع هذه الأنظمة، وهناك أملٌ سياسي عميقٌ في إمكانية القيام بذلك.

© 2021, New Scientist, Distributed by Tribune Content Agency LLC

تسوق لمجلتك المفضلة بأمان

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

I agree to these terms.

زر الذهاب إلى الأعلى