أحد صفحات التقدم العلمي للنشر
ملف خاص

سيكون تنظيم الذكاء الاصطناعي صعباً، لكن شفافية التكنولوجيا الكبيرة هي المفتاح

الشركات التي تنشئ الجيل الجديد من بوتات المحادثة وغيرها من الذكاء الاصطناعي التوليدي لا تنشر التعليمات البرمجية والبيانات الخاصة بها. يجب أن يتغير ذلك

رسوم: IKON IMAGES / PABLO BLASBERG / SCIENCE PHOTO LIBRARY

بقلم نيو ساينتست

صار من الواضح بشكل متزايد أننا على أعتاب ثورة في الذكاء الاصطناعي Artificial intelligence (اختصاراً: الذكاء الاصطناعي AI)، ولن تكون تداعياتها أقل عمقاً من وصول المطبعة أو الإنترنت، كما نستكشف في هذا الملف الخاص. لا أحد يستطيع أن يقول على وجه اليقين ما سيكون عليه هذا المستقبل، لكن المتفائلين – بمن في ذلك العديد من أولئك الذين يعملون في الشركات التي تقف وراء التقنيات – يتوقعون أن يسمح لنا الذكاء الاصطناعي AI بأن نعيش أفضل، فحياتنا ستتغير. ومع ذلك، لا يشارك الجميع هذه النظرة الوردية، وما إذا كان يمثل خطراً وجودياً من انقلاب ذكاء اصطناعي AI ضدنا، أو استمرار التحيز الجنسي والعنصري أو فقدان الوظائف بسبب الأتمتة، لذا صارت الحاجة إلى التشريع قضية اليوم.

يمثل الذكاء الاصطناعي AI تحدياً أكبر من المعتاد على هذه الجبهة. يمكن أن تقدم صناعة المستحضرات الصيدلانية الإلهام، لكن الذكاء الاصطناعي AI أكثر تعقيداً وأكثر غموضاً. يمكن القول إنها أول إبداعات البشرية التي لا يفهمها أحد تماماً. هل لدينا الدليل القاطع على السلامة؟

صحيح أن المنظمين الصيدلايين لا يحتاجون إلى معرفة كيفية عمل الدواء لضمان أمان وصفه. لكن التجارب الإكلينيكية أسهل من التحقق من أن الذكاء الاصطناعي AI القادر على كل شيء بدءاً من تشخيص السرطان إلى قيادة ذاتية آمن لحافلة في كل سيناريو ممكن. وبينما يستغرق الأمر سنوات لتجربة عقار جديد، تظهر نمذجات جديدة للذكاء الاصطناعي كل أسبوع تقريباً.

نحن بحاجة إلى إطار عمل قوي لفحص نمذجات الذكاء الاصطناعي AI ومعاقبة تلك التي لا تلتزم بالقواعد الأخلاقية

يجب أن تتحمل الشركات التقنية المسؤولية. غالباً ما لا تنشر الكودات والبيانات الموجودة داخل نمذجات الذكاء الاصطناعي AI الحالية – والتي تطوَّر حصريا تقريباً من قبل الشركات وليس من المؤسسات الأكاديمية. هذا الافتقار إلى الشفافية ليس جيداً بما يكفي بالنظر إلى المخاطر. نحن بحاجة إلى إطار عمل قوي لفحص نمذجات الذكاء الاصطناعي AI ومعاقبة تلك التي لا تلتزم بالقواعد الأخلاقية الصارمة، ولكن لكي ينجح ذلك، يجب على شركات التكنولوجيا أن تقود من المقدمة من خلال نشر المعلومات اللازمة لتقييم المخاطر. ربما لا يناسب ذلك مساهميها، ولكن عندما تكون المخاطر كبيرة جداً، لا ينبغي أن تكون الأرباح المالية هي التي في المقام الأول.

قد تكون هذه الأنظمة هي الأكثر تعقيداً التي يتعين علينا تنظيمها، ولكن ليس أياً منها سحريا. يحتاج أولئك الذين يصنعون أنظمة الذكاء الاصطناعي AI إلى التوقف عن التصرف كما لو أنه سحري.

© 2023, New Scientist, Distributed by Tribune Content Agency LLC.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

زر الذهاب إلى الأعلى