أحد صفحات التقدم العلمي للنشر
مرحبًا بكم

مرحبًا بكم…

السيدات والسادة
أصدقاء مجلة «العلوم» الكرام

هل يعرف الذكاء الاصطناعي ما يقوله؟ وهل هو واعٍ وذو فكر مستقل؟ حتى الآن، فإن الإجابة هي غير مدوية. 

إذ تميل روبوتات الدردشة للذكاء الاصطناعي إلى الاتفاق مع آراء الشخص الذي يستخدمها، حتى لدرجة أنها تغلف العبارات الخاطئة فتبدو صحيحة للمتلقي للوهلة الأولى. وتظهر الأبحاث أن هذه المشكلة تزداد سوءاً مع زيادة حجم النمذجات اللغوية، مما يعزز المخاوف من أن مخرجات الذكاء الاصطناعي لا ينبغي الوثوق بها.

أجرى جيري وي من Google DeepMind وزملاؤه تجارب على نمذجات الذكاء الاصطناعي باستخدام ثمانية بلايين، وبعدها 62 بليوناً، وبعدها 540 بليون مؤشر – وهي القيم التي تستخدمها كل نمذجة لإنتاج مخرجاتها. ووجدوا أن الاتفاق مع آراء المستخدمين الشخصية ارتفع بنسبة 20% تقريباً عند الانتقال من النماذج التي تحتوي على ثمانية بلايين مؤشر إلى النماذج التي تحتوي على 62 بليون مؤشر، وبنسبة 10% إضافية عند القفز من 62 بليونا إلى 540 بليونا.

إن نتائج نمذجات الذكاء الاصطناعي تعكس تفضيلات البشر، إذ إننا نحب أن تعاد علينا وجهات نظرنا نفسها. والنمذجات اللغوية الضخمة ما هي إلا مثال دقيق على أنها لا تتوخى الحقيقة. لذا ينبغي أن نكون حذرين وناقدين لما تقدمه لنا، وألا نقع ضحايا للتحيز التأكيدي الذي يستجيب لما نحب أن نسمعه. في جوهرها، فإن مصدر المشكلة هو في الأساس التملق البشري نفسه: فالناس يضعفون أمام الإطراء والتحيز التأكيدي، وسيتفاعلون معك إذا أخبرتهم بما يريدون سماعه.

هي أدوات رائعة إذا أحسنا استخدامها، ونظرنا بعين النقد إلى مخرجاتها.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

شاهد أيضاً
إغلاق
زر الذهاب إلى الأعلى