تكنولوجياذكاء اصطناعي

قوانين الروبوت: لماذا نحتاج – وبسرعة – إلى قواعد سلوكية للذكاء الاصطناعي

يتحدى الذكاءُ الاصطناعي الحدودَ القانونية؛ من البوتات المُزوِّرة للانتخابات إلى السيارات ذاتية القيادة القاتلة، إليكم ما نحتاج إليه للسيطرة عليها.

بقلم: دوجلاس هيفن Douglas Heaven
ترجمة: آية علي

لقد رأى حاسوب السيارة إيلين هيرتسبيرغ Elaine Herzberg وهي تدفع دراجتها عبر الطريق السريع ست دقائق كاملة قبل اصطدامه بها. فقد كانت السيارة تسير بسرعة 70 ميلا في الساعة أو أقل ممّا يعني أنّه كان لديها وقت أكثر من كاف للتوقف أو الانحراف، لكنّها لم تفعل أيّا من الأمرين، واصطدمت بالفتاة مباشرة. وتوفيت هيرتسبيرغ في المستشفى متأثرة بجراحها، لتكون أول ضحية قتل لأحد المشاة بسيارة ذاتية القيادة.

ووجد تحقيق أولي أجراه المجلس الوطني الأمريكي لسلامة النقل National Transport Safety Board في حادث التصادم الذي وقع في مدينة تيمبي بولاية أريزونا في شهر مارس، أن إجراءات الفرملة في حالات الطوارئ في سيارة أوبر Uber التي تكون قيد التشغيل قد صُمِّمت لتتعطل أثناء القيادة الذاتية لضمان قيادة أكثر سلاسة، أضف إلى ذلك أنّها لم تُصمّم لتحذير المشغِّل البشري في حالة الخطر.

إنّنا بعيدون كل البعد عن القانون الأول للروبوتات الذي أطلقه إسحق أسيموف Isaac Asimov، وهو لا يؤذي الروبوت إنسانا، ولا أن يتسبّب تقاعسه عن العمل في إلحاق الضرر بالإنسان. إنّ قوانين أسيموف هي خيالية بالطبع، كما أنّ عمرها 75 عاما، ولكن فكرة وجود قوانين صارمة تبقي الروبوتات تحت السيطرة لا تزالُ قائمةً في المُخيّلة الشعبيّة.

واليوم، نجد أنفسنا في عالم يمتلئ بالروبوتات على نحو متسارع، فهي تقود سياراتنا وتؤدّي إجراءاتنا الطبية وتؤثر في انتخاباتنا وتهدد بالاستيلاء على وظائفنا. إذن من الجلي أنّنا لا نستطيع العيش من دونها، ولكن السؤال الأعمق الذي يتناول كيفية تعايشنا معها يظل بلا إجابة.

لقد شهد العامان الماضيان صدور عدد كبير من التقارير من الحكومات والمراكز الفكرية Think Tanks التي تقدّم توصيات حول السياسات، ولكن نموذج أسيموف من الوصايا الأنيقة والمتكاملة ذاتيا لا يزال ضربا من الخيال. إذن، كيف يمكننا تغيير ذلك؟

تقارن مادي ديلفو Mady Delvaux، عضو البرلمان الأوروبي في لوكسمبورغ ومؤلفة تقرير الاتحاد الأوروبي حول قوانين الروبوتات، الوضع الحالي بالوقت الذي ظهرت فيه السيارات للمرة الأولى على الطرق، فتقول: “لم يكن للسائقين الأوائل أي قانون، بل فعل كل منهم ما اعتقد أنه معقول أو حصيف. ولكن المجتمع أصبح بحاجة إلى القوانين مع انتشار التقنية.”

المشكلة هي أن التدخل الروبوتي في الشؤون البشرية سوف يتطلب شيئًا أشمل بكثير من قوانين الطرق، فالتشريعات التي تحمي الركّاب والمارة من السيارات من دون سائق مثلا ستعجز عن منع خوارزميات جمع البيانات من التأثير في تصويتنا [في الانتخابات]. والروبوتات الطبية المبرمَجة لتشخيص الأمراض وعلاج الأفراد ستحتاج إلى لوائح مختلفة عن الروبوتات المُرسَلة إلى ساحة المعركة. ويقول ستيفن كروفت Steven Croft، أسقف أكسفورد الذي يشغل مقعدا في لجنة الاختيار فيما يتعلق بالذكاء الاصطناعي  Select Committee on Artificial Intelligence في مجلس اللوردات البريطاني : “إنّ الذكاء الاصطناعي ليس أمرا واحدا يمكن تنظيمه، فهنالك مخاطر مختلفة؛ مادية وعاطفيّة.”

القواعد السلوكية Code of conduct

وهنالك عقبة أخرى أيضا، وهي أنّ تفسير القواعد يتطلّب الحس السليم، ولم تتضح لنا بعد الكيفية التي سنتمكن من خلالها من فك رموز وصايا أسيموف الصارمة بطريقة نثق بأن الآلة ستتبعها على النحو المطلوب، وذلك على حد تعبير أولريتش فورباخ Ulrich Furbach من جامعة كوبلنز University of Koblenz في ألمانيا، والذي يدرس التفكير الآلي. إنّه على علم بهذه المعضلة، لأنّه سبق وأن حاول حلّها، ولكنه استسلم في نهاية المطاف. ويعلّق على هذا قائلا: “لقد استسلمت، فالأمر صعب للغاية.”

تكمن المشكلة في أنّ القوانين عامة للغاية ولا تأخذ السياق بعين الاعتبار، وربما كان هذا جزءا من غاية أسيموف. لقد استكشف العديد من قصصه العواقب غير المقصودة لروبوتات تحاول تطبيق هذه القوانين في سيناريوهات مختلفة. ففي قصته اللّف في دائرة Runaround التي نُشرت أول مرة في عام 1942، علِق روبوت في حلقة مفرغة وهو يحاول تطبيق القانون الثاني (إطاعة الأوامر المعطاة له من قبل الإنسان) والقانون الثالث (حماية كيانه الذاتي) في الوقت نفسه. تقول ديلفو: “إنّ قوانين أسيموف مثالية في الروايات، ولكن ليس عند وضعها موضع التنفيذ.”

وفي المُحصِّلة، يتلخص النقاش في المسائل الأخلاقية بدلا من التقنية. فما هي القيم التي نعتبرها نحن، كمجتمع، تستحق الحماية؟ يؤكد كروفت على ضرورة تجنب “الفلسفة الليبرتارية المتطرفة” السائدة في أماكن مثل وادي السليكون، أو النهج الشمولي Totalitarian الذي تطبقه دول كالصين. ويعلّق قائلا: “إنّ القوة الجديدة التي يجلبها الذكاء الاصطناعي تحتاج نوعا جديدا من الأخلاقيات، وسيكون هذا ضروريا من أجل ازدهار إنساني يشكِّلَه المجتمع بدلا من أن يشكّل الذكاءُ الاصطناعي المجتمع. إن من مصلحة الأفراد عدم السماح للشركات الخاصة باختيار الأجندة.”

وكما يوضّح حديث كروفت، فإنّ لكل مكان مختلف ثقافة مختلفة، ويتولّد عن هذه الثقافات المختلفة قوانين مختلفة، فاليابان مثلا تعدّ أكثر تقبلا لفكرة الروبوتات المرافِقة Companion robots من العديد من الدول الأخرى. وكما يتّضح لنا من الضجة الأخيرة حول النظام الأوروبّي لحماية البيانات العامّة، فإنّ لدى أوروبا مواقف تجاه الخصوصية وجمع البيانات تختلف عن تلك التي لدى الولايات المتحدة.

ومع ذلك، توجد بالتأكيد بعض الإرشادات التي قد يكون الجميع على استعداد للموافقة عليها، من ذلك عدم السماح للروبوتات بأذيّة البشر، الأمر الذي يبدو بديهيا. يحظى حظر الأمم المتحدة على الأسلحة الذاتية دعما واسع النطاق، مع أن البعض يجادل بأنّ السماح للروبوتات بالقتل قد يحفظ الأرواح، وذلك من خلال تقليل عدد الأخطاء المميتة التي يرتكبها المجنّدون البشر.

وهنالك حجّة مشابهة تستخدم لتبرير الحوادث المميتة المتفرقة التي تتسبب بها السيارات دون سائق والروبوتات الطبيّة، وهي أنّنا لن نتمكن من تقليل خطر الضرر إلى الصفر، ولكن البشر سيكونون بمأمن أكبر وهم بين أيدي الروبوتات أكثر من أيدي البشر.

ولكن لا يستسيغ الكثيرون هذا المنطق النفعي Utilitarian. يقول كروفت: “لا يمكن تبرير سلب الحيوات في الحرب إلا في حالات الضرورة القصوى، لذا فالحكم البشري جزء مهم للغاية من الشن المؤسف للحروب، وأي شيء يحيد عن هذا الأمر فهو، في نهاية المطاف، لا إنساني.”

“سيحتاج الذكاء الاصطناعي إلى أخلاقيات جديدة؛ أخلاقيّات يشكّلها المجتمع بدلا من أن تشكِّلُه هي”

 

لذا فأينما كانت الروبوتات قادرة على إلحاق الأذى -سواء كان ذلك في غرفة العمليات أو ساحة المعركة أو على الطريق- فإنّ وجود الرقابة البشرية هو أمر أساسيّ.

 ويُستحضَر أحد سيناريوهات غالبا لتوضيح مخاطر السماح للذكاء الاصطناعي بامتلاك زمام القرار، وهي معضلة العربة، إذ يجب على سيارة من دون سائق أن تختار من تقتل في حالة وقوع حادث قاتل: إمّا ركّاب السيارة أو المشاة، بناء على تصرّفها. ولكن رايان كالو Ryan Calo من جامعة واشنطن University of Washington في سياتل يجد هذه التجربة الفكريّة تجربة سخيفة، كما يظن فورباخ أن الافتراض بأن الروبوت ليس أمامه خيار سوى القتل هو افتراض غريب، ويعلّق قائلا: “لم يسألني أحد عن مشكلة العربة حين خضت اختبار القيادة.”

ولكن الأكثر إثارة للاهتمام هي الاحتمالات الجديدة التي تثيرها التقنية، وفيما يلي أحد السيناريوهات التي اقترحها كالو. تخيل سيارة مستقلة مزوّدة بمحرّك هجين يمكنه شحن البطارية بتشغيل محركها الذي يدور بالبنزين. قد يكون أحد أهداف هذه السيارة هو زيادة كفاءة استهلاك الوقود. وبعد مرور بضعة أيام على الطريق، تتعلّم أن الفعالية سترتفع إذا بدأت كل صباح ببطارية مشحونة بالكامل، وتقرّر تشغيل محرك البنزين في المرآب طوال الليل، الأمر الذي أسفر عنه مقتل كل فرد في المنزل بسبب التسمم بأول أكسيد الكربون.

سيكون هذا انتهاكا صارخا لقانون عدم إيذاء البشر، ولكنه انتهاك يصعب التنبؤ به. كيف يمكننا إذن تحديد الأخطاء التي تحدث في مثل هذه الحالات، وعلى من يقع اللوم؟

تقول ربيكا كروتوف Rebecca Crootof من جامعة ييل Yale University: “ستكون هنالك حوادث، ولكن السؤال هو: هل سندع الضرر يحدث ونقف مكتوفي الأيدي، أم هل سنكتشف طريقة نحمّل بها الكيانات الملائمة المسؤولية، ونضمن تعويض الضحايا؟”

تعتقد ديلفو أن مسؤولية الروبوتات تقع على عواتق المُصنّعين، فتقول: “إذا طرحتَ شيئا في السوق فيجب أن تكون مسؤولا عنه،” ويوافقها كروفت الرأي قائلا: “تمتد المسؤولية لتشمل الأشياء التي تصنعها.”

ولإدارة المسؤولية، تقترح ديلفو إعطاء الروبوتات شخصية إلكترونية تكون بمثابة معالِج للأمور تحت مسؤولية مجموعة من الأشخاص، تماما كما تجري معاملة الشركات كأفراد بموجب القانون لضمان المسؤولية الجماعية عن أفعالها. وتعلق قائلة: “هنالك بشر مسؤولون عن الشركة، وكذلك الأمر بالنسبة إلى الروبوت.”

المشكلة هي أن قانون المسؤولية يتطلب في العادة أن يكون المُدّعى عليهم على معرفة بنتائج أفعالهم، ولكن ربما لا يكون هذا معقولا مع برمجيات الذكاء الاصطناعي التي تتعلم، كما هي الحال في سيناريو شحن البطارية الذي اقترحه كالو. ولتجنّب حدوث هذا السلوك غير المتوقّع تجنّبا تاما، يشير فورباخ إلى اقتراح لجنة ألمانية بعدم تركيب مكونات للتعلم في السيارات ذاتيّة القيادة، ويعلق على هذا قائلا: “إنّه لأمر سخيف، فنحن نريد منها أن تكون قادرة على التحسّن.”

ما يمكننا طلبه عوضا عن ذلك هو أن يكون الروبوت قادرا على إيضاح موقفه. لقد بدأنا نستخدم الذكاء الاصطناعي في التنبؤ مثلا بملائمتنا لعمل ما أو احتمال ارتكابنا لجريمة، وهي قرارات من حقّنا الطعن في صحتها. ويوصي معهد الذكاء الاصطناعي الآن AI Now Institute، وهو مركز أبحاث متعدد التخصصات في جامعة نيويورك، حظر استخدام المنظمات المنخرطة في مجالات عالية المخاطر، مثل الرعاية الاجتماعية والعدالة الجنائية والرعاية الصحية والتعليم، أنظمةَ الصندوق الأسود التي لا يمكن التدقيق في خوارزمياتها.

قد يعني ضمان الاستخدام المسؤول للخوارزميات أّنّنا بحاجة إلى طرق هجينة جديدة للذكاء الاصطناعي، بحيث يُجمع بين برمجيات تعلم الآلة وبين الأساليب التي يسهل على البشر فهمها، وهذا مجال بحث جديد مثير للاهتمام كما يقول فورباخ.

شرح الصورة: تعد الروبوتات الشبيهة بالإنسان، والتي تستخدم للمرافقة، أمرا مقبولا بالفعل في اليابان. SM/AIUEO/Getty

أما بالنسبة إلى آن ماري ايمافيدون Anne-Marie Imafidon، وهي عضو مجل أمناء معهد مستقبل العمل Institute for the Future of Work في مدينة بالو التو بولاية كاليفورنيا، فهي تعتقد بأنّنا إذا ما رغبنا في أن يقدّم الذكاء الاصطناعي أقصى قدر من المنفعة بأقل قدر من الضرر، فالمفتاح لا يكمن فقط في جعل الآلات مفهومة من قبل البشر، بل في جعلها أفضل من أي شيء يمكننا أن نحققه. ويتمثّل الحلّ الذي تقترحع في التأكد من ألا تشاطرنا الآلات هوسنا بتصنيف الأشياء. وبهذه الطريقة، فإنّنا قد نتجنّب بعض التحيّز الذي يتسلّل إلى الذكاء الاصطناعي ويشوّه عملية اتخاذ القرار الآليّة.

إننا عادة ما نطلب من البرمجيات تسمية الأشياء عندما ندرّبها، فنسألها مثلا هل هذه قطة أم كلب، ولكن بمجرّد إدراج شيء ما ضمن فئة معينة -مثل فئة الذكور السود الذين تتراوح أعمارهم بين 18 إلى 25 عاما، والنساء فوق عمر 65-  فهنالك الكثير من الافتراضات التي ستؤدي دورا، وهي افتراضات قد تكون غير ذي صلة بالمهمة المطروحة بين أيدينا.

تستشهد إيمافيدون بنتفلكس Netflix كمثال على التصنيف الجاري على نحو ممتاز. إذا ذهبت إلى السينما لمشاهدة فيلم بعد إصداره بوقت قصير، فقد تُسأل أحيانا عن رأيك به. بعدها توضع استجابتك مع الاستجابات الأخرى الصادرة من شريحتك ديموغرافية نفسها، مثل: النساء في هذا العمر يفضّلن هذا الفيلم، وهكذا، ولكن نتفلكس تخصّص توصياتها لأفراد، لا لمجموعات، مثل: الأشخاص الذين أعجبهم هذا الفيلم أعجبهم أيضا ذلك الفيلم، أي أنّ جنسك وعمرك لا علاقة لهما بالتصنيفات.

تقول إيمافيدون أنّ جعل الآلات تعامل الناس كأفراد هو أهمّ مبدأ يجب أن نهدف إلى تحقيقه. ومع ذلك، يمكن لهذه القوانين انتهاك خصوصياتنا بسهولة، ومراقبة تحرّكاتنا ومعرفة جميع تفضيلاتنا، ومن ثم استخدام هذه المعلومات لصناعة ملف شخصي يُستخدم ضدّنا. إن التشخيص المدعوم بالذكاء الاصطناعي يزيد بالفعل من تفاقم المشكلات الكبيرة في المجتمع، مثل العملاء الروس الذين يستخدمون خوارزميات فيسبوك لزراعة دعايات دقيقة ومخصّصة في الشبكات الاجتماعية. ربما سنرى المزيد من المزايا إذا كان لدينا بعض الضمانات التي تؤكد أنّ البيانات ستُستخدم بطريقة غير متحيّزة.

إذا تمكنا من التغلب على هذه التحديات، فستكون الأجهزة التي تنقذ الأرواح وتتحمّل مسؤولية أفعالها وتعاملنا جميعًا بصورة عادلة موضع ترحيب في معظم المجتمعات. ولكن مع قدرتنا على خلق ذكاء اصطناعي، وصناعة روبوتات تشبه الإنسان أكثر فأكثر، فإنّ علينا أخذ نوعية التفاعلات التي سنرتاح في خوضها مع الآلات بعين الاعتبار.

تتيح لنا تقنية التعرف على الصوت التحدث إلى أجهزتنا بشكل طبيعي تقريبا، فيتيح برنامج دوبلكس Duplex من غوغل للمساعدين الافتراضيين المدعومين بالذكاء الاصطناعي أن يحجزوا المواعيد من خلال الهاتف، وذلك باستخدام صوت اصطناعي يكون واقعيا بما في الكفاية لدرجة تجعل الشخص المُتحدَّث إليه يعتقد بأنّه يتحدّث مع إنسان آخر. كما يصنع الخبراء روبوتات ذات صفات بشريّة بجسد وشعر يبدوان نابضين بالحياة.

هذا بالطبع أمرٌ غريب وخارق، ولكن يوجد مصدر قلقٍ أكبر هنا، وهو أنّ البشر يشكّلون ارتباطات عاطفية بسهولة. لقد بدأنا بالكاد بالنظر في أنواع العلاقات العاطفية التي قد يطوّرها الناس مع المرافقين الآليين من أشباه البشر مثلا، وقد تلعب الاختلافات الثقافية دورا في الأمر. يقول فورباخ: “تعدّ رعاية الروبوتات لكبار السن شيئا مقبولا تماما في اليابان، ولكنه يعتبر في ألمانيا أمرا غير إنسانيّ.”

ولكننا قد نتفق جميعا على أنّه مهما بدت الآلة واقعيّة، فإنّ علينا التمييز دائما بين ما إذا كنا نتفاعل مع آلة أو إنسان. تقول ديلفو: “لا يمكننا منع المصنّعين من طرح روبوتات شبيهة بالإنسان في السوق، فالمستهلكون سيشترونها، ولكن يجب علينا توعية الناس بشأن ما إذا كانوا يتفاعلون مع روبوت ليس إنسانا.”

“علينا توخّي الحذر كي لا يكون أرباب الوحيدين الذي يجنون منافع الروبوتات”

 

وفي حالات أخرى، وحتى ولو تكن الروبوتات تشبهنا كثيرا، فإنّها قد تظل قادرة على احتلال محلّنا. يقول توماس واتسونTom Watson، نائب زعيم حزب العمال البريطاني Labour Party الذي أنشأ لجنة مستقبل العمل Future of Work Commission في العام الماضي للنظر في كيفية تأثير التقنيات الجديدة في العمالة: “قد تكون الروبوتات قوّة مُحرِّرة من خلال توليها للأعمال الروتينية.” غير أنّه قلِقٌ حيال عدم توازن القوى بين أولئك الذين لهم الأسبقية في الحصول على الروبوتات على بقيّة الناس. ويعلّق قائلا: “علينا توخّي الحذر من أن تستحوذ الشركات الكبرى وأرباب العمل على كلّ الفوائد، بينما تُترك السلبيّات للعمّال العاديّين.”

من السهل علينا، في عالمنا هذا الذي يزداد أتمتة، أن ننسى أنّ البشر هم الذين يبرمجون الأجهزة ويملكونها ويديرونها. ومثلها مثل أي اختراع آخر؛ فإنّ قراراتها وأهدافها ووظائفها قد صُمِّمَت جميعا بأهداف أسمى وأكثر إنسانية، وهي السلامة والراحة والكفاءة والربح. إن تصميم قوانين كي تتبعها الآلات هي تجربة فكريّة مسليّة، ولكنها ستصبح في النهاية عامل تشتيت وإرباك. إن قوانين الروبوتات الحقيقية التي نحتاجها هي تلك التي تبقي البشر، لا الآلات، تحت السيطرة.

ويقول كروفت: “هذا نقاش يشترك فيه جميع الناس حول العالم، فنحن -كجنس بشري- بحاجة إلى الاستعانة بالتقاليد العميقة من الحكمة كي نتمكن من معالجة هذه الأسئلة الجوهريّة، إذ لا يمكننا الإجابة عنها من منطلق التقنية وحدها.”

وهنالك على الأقل قاعدة تقنية ثابتة قد نتفق عليها جميعا، وهي كما تقول ديلفو: “يجب أن يكون الإنسان قادرا دائما على إطفاء الآلة.”

الوصايا الخمس

لابد من أن يشمل أي قانون كونيّ متعلق بالروبوتات الآتي:

القانون الأول: لا يؤذي روبوتٌ إنسانا ولا يسمح بأن يصيبه بمكروه؛ ما لم يكن خاضعا لإشراف إنسان آخر.

القانون الثاني: يجب على الروبوت أن يكون قادرا على شرح موقفه.

القانون الثالث: يجب على الذكاء الاصطناعي مقاومة التصنيف المتحيّز.

القانون الرابع: يجب على الروبوت أّلا ينتحل شخصيّة الإنسان.

القانون الخامس: يجب أن يكون لدى الروبوت دائمًا مفتاح إيقاف التشغيل.

اظهر المزيد

مقالات ذات صلة

تعليق واحد

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى
إغلاق
إغلاق