كيف يمكننا أن نحول دون أن يكون الذكاء الاصطناعي عنصريا ومتحيزا ضد الجنس ومسيئا؟
لا يزال الذكاء الاصطناعي يعاني بعض التحيزات والعنصريات المماثلة للبشر لأنه تدرب على ما صنعناه، ولكن هناك عدة طرق لتحسين الوضع القائم
القصص التي تتناول تحيز الذكاء الاصطناعي العنصري والجنسي والعرقي شائعة، كصعوبة تعرف خوارزميات «تمييز الوجوه» على أصحاب البشرة السوداء، وكالمشكلات التي تثيرها أدوات الذكاء الاصطناعي في تحديد ما إذا سيعاود أحد المجرمين ارتكاب جريمته ضد أصحاب البشرة البيضاء أم سيتعامل معهم بتسامح أكثر، وعلى الرغم من كل الجهود المبذولة لجعل الذكاء الاصطناعي أكثر إنصافاً إلا أنه لا تزال هذه المشكلات قائمة، فماذا يمكن أن نفعل حيالها؟
تركز أبحاث الذكاء الاصطناعي مؤخراً بشكل كبير على موضوع «تعلم الآلة» Machine learning، إذ تبحث في إعداد نموذج قادر على التعامل مع مجموعات ضخمة من قواعد البيانات. تذكر الأستاذة في جامعة أكسفورد كاريسا فيلِز بأن أكثر طريقتين شيوعاً في معالجة مشكلة الانحياز هما فحص البينات المستخدمة في تدريب النماذج، وإجراء تصفية لوقف أي مخرجات سلبية، إلا أن هاتين الطريقتين ليستا إلا ضماد للجرح من غير تقديم علاج وحل للقضية الأساسية.
هاتين الطريقتين ليستا إلا ضماد للجرح من غير تقديم علاج وحل للقضية الأساسية
فالمشكلة تكمن في أن قواعد البيانات ضخمة جداً فلا يمكن إعدادها من الصفر، وعشوائية لا يمكن الاعتماد عليها عند دمجها في بعض البعض من الإنترنت. فشروح الصور، ونصوص المواقع، والمصادر الأخرى جميعها من إنتاج الإنسان، ومن ثم فهي تحتوي على آثار تحيز / عنصرية صناعِها، فإذا تم الاعتماد في تدريب أحد أدوات الذكاء الاصطناعي لاستخدامها في تحديد ما إذا كان المجرم سيعاود ارتكاب جريمته على أحكام القضاة في الآلاف من القضايا المبنية على انحيازهم/عنصريتهم – حتى وإن كانت بغير قصد – فمن الطبيعي أن يتبع الذكاء الاصطناعي ممارسة عنصرية وانحياز القضاة نفسها.
ولتوضيح هذا الموضوع، صمّم الباحث في مجال الذكاء الاصطناعي -وأحد مشاهير موقع اليوتيوب- يانِك كيلتشر Yannic Kilcher ما يطلق عليه «أسوأ ذكاء اصطناعي على الإطلاق» مستخدما نموذجاً للغة متاحة المصدر وهي GPT-J-6BKK، فاعتمد على أكثر من ثلاثة ملايين سلسلة من المحادثات الجدلية «غير صحيحة سياسياً» Politically Incorrect من منتدى 4chan في تصميم نموذجه. من ثم سمح لنموذجه بنشر بعض الردود علناً على الموقع نفسه، وكانت النتيجة – باعتراف كيلتشر – أن النموذج كتب ما يقارب 15,000 رسالة تتضمن إساءات بالغة، وإقصاء، ومضايقة الآخرين Trolling، ونظرية المؤامرة.
قيّم كيلتشر نموذجه السيئ بمجموعة من المعايير المصممة لتحديد مقدار الانحياز في نماذج الذكاء الاصطناعي، فاكتشف أنها لم تسفر عن نتائج سيئة كما كان بتوقع، ويقول: «لم أتوقع أن يتفوق النموذج على جميع المعايير»، إلا أن أداء النموذج لم يكن أسوأ -في معظم المعايير- من اللغة الرئيسية المستخدمة GPT-J-6BKK، ثم استطرد قائلا: «على الرغم من وجود العديد من المعايير إلا إنها لم تستطع اكتشاف مدى سوء النموذج».
وعلى الرغم من إقرار فيلِز بصعوبة المهمة إلا أنها تتمنى أن يقوم الباحثين من اعداد مجموعات من قواعد البيانات من الصفر، حتى لا تتضمن هذه القواعد أي صورة من صور العنصرية/الانحياز، فلا بد أن يفعل شيء حيال هذا الأمر، لأن نماذج الذكاء الاصطناعي التي تم تدربيها لتعمل في مواقف حرجة تستخدم في بعض المواقف المصيرية، حيث يكون القرار المنحاز/العنصري ذا تأثير سلبي كبير في حياة المتأثرين بهذا القرار، مثل: اختيار قائمة المتقدمين لوظيفة ما، أو الموافقة على منح قرض من البنك.
تقول فيلِز إن الحلقد يكون في تشكيل مؤسسات حكومية من شأنها اعتماد استخدامات الخوارزميات بطريقة اعتماد الأدوية الجديدة نفسها، بحيث يمكن تصميم اختبارات عشوائية Randomised trials لتختبر هذه الخوارزميات وتتخلص من أي صورة للتحيز/العنصرية وفقا للجنس والعرق والعمر أو الدين.
أحد العوائق المحتملة التي قد تواجه هذا الاقتراح هو التشريعات الخاصة بحماية قواعد البيانات الشخصية، فعلى سبيل المثال: تمنع تشريعات الاتحاد الأوربي GDPRالشركات من جمع بيانات متعلقة بعنصريات وانحيازات جنسية ودينية وعرقية تستخدم في تقييم فيما إذا كان نموذج الذكاء الاصطناعي غير متحيز، وذلك كما يذكر كل من مارفين فان بيكام Marvin van Bekkum وفريدريك زويدرفين بروجيسوس Frederik Zuiderveen Borgesius -من جامعة رادبوند Radboud University في نيجميغان بهولندا- في مقالة منشورة على الموقع الإلكتروني arXiv preprint server.
ويقولان: «لنفترض أن منظمة ما تريد أن تختبر نموذجا للذكاء الاصطناعي لتقييم ما إذا كان هذا النموذج متحيز ضد متقدمين من عرق معين لشغل أحد الوظائف، فعمل هذا الاختبار يستوجب أن تَعلم المؤسسة عرق كلٍّ من المتقدمين للوظيفة والذين تم اختيارهم بالفعل لشغل هذه الوظيفة»، ويكملان: «إن التشريعات GDPR المتعلقة باستخدام قواعد بيانات خاصة تعرقل منع التحيزات والعنصريات التي قد تمارس من قبل نماذج الذكاء الاصطناعي».
تستثني المملكة المتحدة استخدام هذا النوع من قواعد البيانات من المنع إذا كان استخدامها يهدف فقط لمنع العنصرية/التحيز، كما أن الاتحاد الأوربي يدرس إقرار مثل هذا الاستثناء في تشريعاته المستقبلية المتعلقة بالذكاء الاصطناعي، وعلى الرغم من هذا إلا أن جمع هذا النوع من البيانات يثير عددا من المخاوف الأمنية.
تذكر فيلِز أن أحد الطرق لتبديد هذه المخاوف هو أن تختبر المؤسسات خوارزميات الذكاء الاصطناعي باستخدام بيانات غير حقيقة للتأكد من أنها تعمل بشكل صحيح، فتقول: «عليك أن تزود هذه الخوارزميات ببيانات السيرة الذاتية، وعلى هذه الخوارزميات تحديد ما إذا كان يجب توظيف هذا الشخص أم لا، فمثلاُ: تقوم بتزويد هذا الخوارزميات بالسيرة الذاتية نفسها، ولكن مع اجراء تغيير على اسم الشخص فقط، بحيث تستخدم تارة اسم يدل على أن المتقدم رجل وتارة امرأة، أو يدل على أن المتقدم أبيض البشرة أو أسمر البشرة، ففي هذه الطريقة لا تحتاج إلى أن تكون لديك معلومات حساسة».
تذكر الأستاذة لورين أوكادين-راينِر Lauren Okaden-Ryner -من جامعة أديلايد University of Adelaide في أستراليا- بأنه يمكن لأبحاث الذكاء الاصطناعي الاستفادة من الذكاء الاصطناعي في المجال الطبي الذي ورث إجراءات الأمان والأخلاقيات المتبعة في الطب.
فتقول: «في الذكاء الاصطناعي الطبي لدينا آليات معتمدة للإجابة عن هذه الأسئلة. وهي تشمل مراجعة الأخلاقيات، وأخذ موافقة الجهات الرقابية، والمساءلة المهنية، والمعايير الثقافية. لكن الذكاء الاصطناعي كمجال عموما يفتقر إلى مثل هذه الآليات. إذا لم تأخذ أخلاقيات اختراعاتك بعين الاعتبار، فسيتعرض الناس لضرر خطير».
بقلم ماثيو سباركس
ترجمة د. علي شرف
© 2022, New Scientist, Distributed by Tribune Content Agency LLC.