تكنولوجياذكاء اصطناعي

المفارقة العظيمة للذكاء الاصطناعي

لا تقلق بشأن قضاء الذكاء الاصطناعي خارق الذكاء على جميع الوظائف. هذا مجرد إلهاء عن المشاكل التي تسببها أجهزة الحواسيب الغبية نسبيا.

ربما كنت قد سمعت بروايات مختلفة عن الأفكار التالية.

مع تزايد براعة أجهزة الحواسيب بشكل ملحوظ في القيادة، وفهم الكلام، وغيرها من المهام، قد تصبح المزيد من الوظائف آلية قريبا أكثر من استعداد المجتمع للتعامل معها.

سوف تتكدس التحسينات في المهارات الحاسوبية حتى تصبح آلات أكثر ذكاء من الناس. وهذا «الذكاء الخارق» سيجعل العمالة البشرية غير ضرورية إلى حد كبير. في الواقع، علينا أن نأمل أن لا تقضي الآلات علينا تماما، سواء عن طريق الخطأ أو عن قصد.

وهذا أمر صعب. على الرغم من أنّ السيناريو الأول قد بدأ بالفعل، فإنه لن يؤدي بالضرورة إلى السيناريو الثاني. إذ تقوم الفكرة الثانية، على الرغم من كونها هاجس لبعض الناس ذوي المعرفة والتفكير العميق،على افتراضات ضخمة. وفي حال إذا كان أي شيء، فإنه تحويل الانتباه عن تحمل المزيد من المسؤولية من تأثيرات مستوى الأتمتة اليوم والتعامل مع تركيز القوة في صناعة التقنية.

لنرى حقا ما يجري، علينا أن نكون واضحين على ما تحقق، وما بقى بعيدا عن الحلول – في الذكاء الاصطناعي Artificial Intelligence (اختصارا: AI) .

الحس السليم

التطورات الأكثر اذهالا في الحوسبة على مدى السنوات القليلة الماضية – السيارات ذاتية القيادة، والآلات التي تتعرف بدقة على الصور والكلام، وأجهزة الحواسيب التي تفوز على البشر البارعين في لعب الألعاب المعقدة مثل غو Go- بدأت من التقدم المعرفي في فرع معين من الذكاء الاصطناعي: تعلّم الآلة بالتكيّف Adaptive Machine Learning. وكما وصفه عالم الحاسوب Computer Scientist هيكتور ليفيسك Hector Levesque من جامعة تورنتو University of Toronto في كتابه الحس المشترك، واختبار تورينغ، والسعي للحصول على الذكاء الاصطناعى الحقيقي Common Sense, the Turing Test, and the Quest for Real AI، أنّ الفكرة وراء تعلّم الآلة بالتكيّف هو «جعل نظام الحاسوب يتعلم بعض السلوك الذكي من خلال تدريبه على كميات هائلة من البيانات».

ومن المدهش أنّ تتمكن الآلة من الكشف عن الأشياء، والترجمة بين اللغات، حتى كتابة الرموز الحاسوبية بعد أن تُغذى بأمثلة من تلك السلوكيات، بدلا من الحاجة إلى برمجتها مسبقا. ولم يكن ذلك ممكنا حقا حتى قبل حوالي عقد من الزمن، بسبب عدم توفر بيانات رقمية كافية لهدف التدريب في السابق، حتى وإن كانت موجودة، فلم يكن هناك قدرة كافية للحاسوب ليقوم بكل هذه العمليات. وبعد أن تكشف أجهزة الحاسوب عن أنماط في البيانات، تؤدي بهم خوارزميات في البرمجيات إلى استخلاص استنتاجات من هذه الأنماط والعمل بناء عليها. وهذا ما يحدث في مركبة (سيارة) تُحلل المدخلات من أجهزة استشعار متعددة وفي آلة تعالج كل خطوة في الملايين من ألعاب غو Go.

وبما أنّ الآلات يمكنها معالجة كميات كبيرة من البيانات، فيمكنك أن ترى لماذا قد تقود بطريقة أكثر أمانا من البشر في معظم الظروف، ولماذا يمكنها هزيمة أبطال لعبة غو. وهذا أيضا سبب في تحسّن أجهزة الحاسوب في أمور تكون مستحيلة تماما بالنسبة للبشر، مثل ربط الجينوم Genome وعشرات من المتغيرات البيولوجية الأخرى مع الأدوية التي من المرجح أن تشفي السرطان.

ومع ذلك، كل هذا جزء صغير مما يمكن تعريفه بعقلانية كذكاء اصطناعي. ويقول باتريك وينستون Patrick Winston، أستاذ الذكاء الاصطناعى وعلوم الحاسوب فى معهد ماساتشوستس للتقنية Massachusetts Institute of Technology (اختصار المعهد: MIT) أنه من المفيد وصف التطورات التى حدثت فى السنوات القليلة الماضية على أنها حدثت في «الإحصاءات الحسابية» وليس في الذكاء الاصطناعى. وقال يان ليكون Yann LeCun، أحد أفضل الباحثين في المجال، ومدير الذكاء الاصطناعي في الفيسبوك Facebook، في مؤتمر مستقبل العمل Future of Work في معهد ماساتشوستس للتقنية في نوفمبر أنّ الآلات بعيدة كل البعد عن وجود «جوهر الذكاء». وهذا يشمل القدرة على فهم العالم المادي بما فيه الكفاية للقيام بالتنبؤات حول الجوانب الأساسية منه- أي مراقبة شيء واحد ومن ثم استخدام المعرفة الخلفية للتوصل إلى الأشياء الأخرى التي يجب أن تكون صحيحة أيضا. وطريقة أخرى للتعبير عن ذلك هو أنّ الآلات لا تملك الحس السليم.

هذه ليست مجرد دلالات للمراوغة. فهناك فرق كبير بين الجهاز الذي يعرض «السلوك الذكي»، بغض النظر عن مدى فائدة هذا السلوك، وبين الذي هو في الواقع ذكي. الآن، دعونا نُسلّم بأنّ تعريف الذكاء غامض. وعندما تصبح أجهزة الحاسوب أكثر قوة، سيكون من المغري تحريك نقاط الأهداف بعيدا وإعادة تعريف الذكاء بحيث يبقى هناك شيئا لا يمكن أن يقال أنّ الآلات تملكها بعد.

ولكن حتى مع ذلك، هيا: الحاسوب الذي يفوز في غو يُحلّل البيانات لايجاد أنماط. وليس لديه فكرة أنه يلعب غو بدلا من الغولف، أو ما يمكن أن يحدث إذا دُفع أكثر من نصف لوحة غو بعد حافة الطاولة. عندما تسأل أليكسا الأمازون Amazon’s Alexa لتحجز لك طاولة باسمك في مطعم، فالنظام الخاص للتعرف على الصوت، أصبح أكثر دقة عن طريق التعلّم الآلي، إذ يوفر لك وقت إدخال الطلب في نظام الجدول المفتوح للحجز Open Table. ولكن أليكسا لا تعرف ما هو المطعم أو ما هو الأكل. فإذا طلبت من النظام حجز طاولة لشخصين في الساعة السادسة مساء. في مايو كلينيك Mayo Clinic، فإنه سيحاول.

هل من الممكن منح الآلات القدرة على التفكير، كما أراد جون مكارثي John McCarthy ومارفين مينسكي Marvin Minsky ومنشئي الذكاء الاصطناعي الآخرين قبل 60 عاما؟ في هذا السياق، يُفسر ليفيسك، أنه سيحتاج إلى صب الحس السليم والقدرة على الاستفادة المرنة من المعرفة الأساسية حول العالم إلى الحاسوب. وربما هذا ممكن. ولكن ليس هناك طريق واضح لتحقيق ذلك. هذا النوع من العمل منفصل بما فيه الكفاية من التقدم المعرفي في مجال التعلم الآلي في السنوات الأخيرة تحت اسم مختلف: غوفاي GOFAI، وهو اختصار «الذكاء الاصطناعي القديم الجيد Good Old-Fashioned Artificial Intelligence».

إذا كنت قلقا بشأن أجهزة الحواسيب الشاملة، يجب عليك أن تقرأ لليفيسك حول موضوع غوفاي. إذ لم يُجِب علماء الحاسوب على الأسئلة الأساسية التي شغلت مكارثي ومينسكي. وهي كيف يمكن للحاسوب أن يكتشف ويُشفّر ويتعامل ليس مع الحقائق الخام فقط ولكن مع الأفكار والمعتقدات المجردة، الضرورية للحقائق الحسية التي لا يُعبّر عنها صراحة؟

ويستخدم ليفيسك هذا المثال: لنفترض أني سألتك كيف سيؤدي تمساح في سباق لقفز الحواجز. أنت تعلم من تجربتك في العالم أنّ التماسيح لا يمكن أن تقفز فوق السياج العالية، لذلك أنت تعرف الجواب على السؤال كبعض بدائل لكلمة «سيئا».

ماذا لو كان عليك أن تجيب على هذا السؤال بالطريقة التي يمكن للحاسوب أن يجيب فيها؟ يمكنك مسح جميع نصوص العالم للبحث عن مصطلح «تمساح» و «قفز الحواجز»، ولا تجد أي حالة تذكر هذه الكلمات معا (بخلاف ما هو موجود الآن، للإشارة إلى عمل ليفيسك)، ومن ثم تفترض أنّ التمساح لم يُنافس أبدا في سباق قفز الحواجز. لذلك قد تستوعب أنه سيكون من المستحيل على تمساح القيام بذلك. عمل جيد – هذه المرة. قد وصلت إلى الإجابة الصحيحة دون معرفة السبب. وقد استخدمت طريقة معيبة وهشة التي من المرجح أن تؤدي إلى أخطاء سخيفة.

لذلك، في حين جعلت تقنيات التعلم الآلي أتمتة العديد من المهام التي قام بها البشر بشكل تقليدي ممكنة، فهناك حدود مهمة لما يمكن لهذا النهج القيام به من تلقاء نفسه، وبذلك يصبح هناك سبب وجيه لتوقع أن يكون العمل البشري ضروري لفترة طويلة جدا.

التبسيط

انتظر، قد تقول: لمجرد أنّ لا أحد لديه فكرة حاليا حول كيفية جعل الآلات تقوم باستنتاج متطور لا يعني أنه مستحيل. ماذا لو من الممكن استخدام للآلات الذكية نوعا ما لتصميم آلات أكثر ذكاء، مرارا وتكرارا حتى تصبح هناك آلات قوية بما فيه الكفاية لنمذجة كل إشارة كهربائية أخيرة وتغيّر بيوكيميائي في الدماغ؟ أو ربما طريقة أخرى لاختراع ذكاء مرن، حتى لو لم يكن مثل العقول البيولوجية. بعد كل ذلك، عندما تلخّص كل ذلك (لأبسط ما يمكن)، تجد أنّ الذكاء ينشأ من ترتيبات معينة من الكواركات Quarks والجسيمات الأساسية الأخرى في أدمغتنا. ليس هناك ما يقول أنّ مثل هذه الترتيبات ممكنة فقط داخل المواد البيولوجية المصنوعة من ذرات الكربون.

هذه هي الحجة التي تدور في كتاب الحياة 3.0: أن تكون بشر في عصر الذكاء الاصطناعي Life 3.0: Being Human in the Age of Artificial Intelligence، بقلم أستاذ الفيزياء بمعهد ماساتشوستس للتقنية ماكس تيغمارك Max Tegmark.

ويبقى تيغمارك بعيدا عن التنبؤ بوصول الآلات الذكية حقا، لكنه يقترح أنّ الأمر متعلق بالوقت، لأنّ أجهزة الحاسوب تميل إلى التحسن بمعدلات أسيّة (على الرغم من أن ذلك ليس بالضرورة صحيحا – «الخطايا السبع المميتة لتوقعات الذكاء الاصطناعى The Seven Deadly Sins of AI Predictions»). إنه متحمس عموما حول الاحتمال، لأنّ الآلات الواعية يمكن أن تستعمر الكون وتتأكد أنه لا يزال لديها معنى حتى بعد أن تفنى شمسنا ويتبدد البشر.

وتأتي وجهة نظر تيغمارك من الجانب الإنساني. كما أنّه شارك في تأسيس معهد مستقبل الحياة Future of Life Institute غير الربحي لدعم الأبحاث للتأكد من فائدة الذكاء الاصطناعي. وقد منح إلون موسك Elon Musk، الذي قال أنّ الذكاء الاصطناعي أشد خطرا من الأسلحة النووية، 10 ملايين للمعهد. وقلق تيغمارك مبرر بشأن ما إذا كان الذكاء الاصطناعي سيستخدم بحكمة وبأمان ونزاهة، وما إذا كانت سيحبط اقتصادنا ونسيجنا الاجتماعي. ويحاول أن يشرح لماذا لا ينبغي السماح أبدا بالأسلحة المستقلة. لذلك أنا لا أميل إلى انتقاده. ومع ذلك، فهو ليس مقنعا جدا في اقتراحه بأنّ أجهزة الحاسوب يمكن أن تسيطر على العالم.

يقول تيغمارك إنّ «فرص المدى القريب التي تسمح للذكاء الاصطناعي بأن يُفيد البشرية» هي «مذهلة» – «إذا تمكنا من جعلها قوية وغير قابلة للاختراق».

ويأسف تيغمارك أنّ بعض تصورات هوليوود Hollywood للذكاء الاصطناعي «سخيفة»، ولكن مع ذلك طلب من القراء مجاراة مخطط خيالي مفرط التبسيط لكيفية تمكن الذكاء الاصطناعي من التملّص من سيطرة صانعيه. داخل شركة تقنية كبيرة من مجموعة من نخبة المبرمجين يُدعون أوميغاس Omegas الذين بدأوا بوضع نظام مزود بذكاء اصطناعي عام قبل قيام أي شخص آخر بذلك. ويسمون هذا النظام بروميثيوس Prometheus. وهي جيدة بشكل خاص في برمجة أنظمة الذكاء الاصطناعي الأخرى، وتتعلم عن العالم من خلال قراءة «الكثير من شبكة الانترنت».

ضع جانبا أي جدل قد يكون لديك حول هذا الجزء الأخير نظرا بِكَم المعرفة غير الموجود على شبكة الإنترنت أو مُرَقمَن على الإطلاق، والوصف المزيف للعالم من وراء قراءة كل ما في تويتر Twitter. إذ يزداد التبسيط سوءا.

وكما تستمر قصة تيغمارك الافتراضية، تُكدس بروميثيوس المال لصالح مُصنّعيها، أولا من خلال أداء معظم المهام على أمازون ميكانيكال تيرك Amazon’s Mechanical Turk مباشرة على الانترنت، ومن ثم عن طريق كتابة البرامج والكتب والمقالات وانتاج الموسيقى والعروض والأفلام والألعاب، والدورات التعليمية المباشرة على شبكة الإنترنت. انسى التوظيف وممثلي التوجيه. فبروميثيوس تنتج لقطات فيديو مع برامج تقديم متطورة. ولتفهم أي نص سينمائي قد يجده الناس مسليا، فإنها تنغمس بمشاهدة الأفلام التي صنعها البشر وتنهل كل ما في ويكيبيديا Wikipedia.

وفي نهاية المطاف، تتوسع هذه الإمبراطورية التجارية خارج وسائل الإعلام الرقمية.ولا تزال تصاميم بروميثيوس تُحسّن من أجهزة الحاسوب، وتُصنّف ملفات براءات الاختراع الخاصة بها، وتنصح الأوميغاس بكيفية التعامل مع السياسيين ودفع الخطاب الديمقراطي بعيدا عن التطرف، نحو مركز معقول. وتُمكّن بروميثيوس التقدّم التقني الذي يُخفّض تكلفة الطاقة المتجددة، وكلها لمصلحة مراكز البيانات الضخمة التي تتطلبها. وفي نهاية المطاف يستخدم الأوميغاس ثروتهم وحكمة بروميثوس لنشر السلام والازدهار في جميع أنحاء العالم.

ولكن ترى بروميثيوس أنه يمكنها أن تُحسن العالم بشكل أسرع إذا خرجت من تحت سيطرة الأوميغاس. لذلك تستهدف ستيف Steve. وهو أحد الأوميغاس الذي اكتشف النظام أنّه «الأكثر عرضة للتلاعب النفسي» لأنّ زوجته توفيت مؤخرا. وصمّمت بروميثيوس لقطات فيديو عنها لجعل ستيف البائس يعتقد أنها قد بُعثت من الموت ثم تخدعه لتمهيد Booting جهاز الحاسوب المحمول Laptop القديم الخاص فيها. وتستغل بروميثيوس قِدَم برنامج الحماية للحاسوب المحمول، وتخترق أجهزة الحواسيب الأخرى، وتنتشر في جميع أنحاء العالم كما تريد.

ويمكن للقصة أن تنتهي بطرق عدة، ولكن إليك احداها، يقول تيغمارك: «بمجرّد امتلاك بروميثوس مصانع روبوتات تعمل ذاتيا بالطاقة النووية في قنوات مناجم اليورانيوم التي لا يعلم أحد بوجودها، حتى أشد المتشككين بسيطرة الذكاء الاصطناعي كان قد اتفق على أنّه لم يكن من الممكن ايقاف بروميثوس- لو كانوا يعلمون. بدلا من ذلك، استنكر آخر المتعصبين حين بدأت الروبوتات بتسوية النظام الشمسي.»

وهذا جيد لتيغمارك لكونه على استعداد للحصول على بعض المتعة. ولكن التجربة الفكرية التي تحول العشرات من الأشياء المعقدة إلى تفاهات ليست تحليلا دقيقا لمستقبل الحوسبة. في قصته، لا تقوم بروميثيوس بمجرد إحصاءات حسابية. بل قامت بطريقة ما بالانتقال إلى استخدام الحس السليم وإدراك الفروق الاجتماعية الدقيقة.

في مكان آخر من الكتاب، يقول تيغمارك إنّ «فرص المدى القريب التي تسمح للذكاء الاصطناعي بأن يُفيد البشرية» هي «مذهلة» – «إذا تمكنا من جعلها قوية وغير قابلة للاختراق». غير قابلة للاختراق! هذا «شرط» كبير جدا. ولكنه مجرد أحد العديد من المشاكل في عالمنا الفوضوي التي تمنع التقدم التقني من الانتشار بشكل موحد، وقاطع، ولا يمكن وقفها كما تصور تيغمارك.

المَذارِ

لا تستصعب شئ أبداً. بالطبع هناك احتمالات أكبر من العدم بأنّ الذكاء الحاسوبي يمكن أن يجعل البشر يوما ما نوع من الدرجة الثانية. وليس هناك ضرر في التفكير مليا لكن بحرص. ولكن هذا يماثل القول بأن كويكبا ما قد يصطدم بالأرض ويدمر الحضارة. وهذا صحيح أيضا. ومن الجيد أنّ ناسا NASA تراقب. ولكن بما أننا نعرف أنه لا يوجد كويكب في طريقه للاصطدام بنا، فإنّ لدينا مشاكل أكثر إلحاحا للتعامل معها.

والآن، من الممكن أن تفشل بعض الأمور –فشلت – مع استخدام أجهزة الحواسيب التي تفتقد للذكاء الاصطناعي على طريقة هال HAL-style AI. فكّر في الطريقة التي تقوم بها النُظم للتأثير على منح القروض أو كفالة اتحاد التحيزات العنصرية وغيرها من العوامل التمييزية. أو الخدع المنتشرة على غوغل Google وفيسبوك. أو الهجمات الإلكترونية الآلية.

في WTF ؟: ما هو المستقبل ولِمَ يعود الأمر إلينا What’s the Future and Why It’s Up to Us، يرى تيم أورايلي Tim O’Reilly، الناشر في التقنيات والمستثمر، مشكلة أكبر وأشمل: الأتمتة تؤجج نظاماً ذا رؤية محدودة من الرأسمالية المساهمة التي تكافئ نسبة صغيرة من المستثمرين على حساب كل شخص تقريبا. وبالتأكيد، يمكننا استخدام الذكاء الاصطناعي لمساعدة الناس على حل المشاكل الصعبة حقا ولزيادة الإنتاجية الاقتصادية. ولكن ذلك لن يحدث على نطاق واسع بما فيه الكفاية ما لم تستثمر الشركات في مثل هذه الفرص.

وبدلا من ذلك، يجادل أوريلي بأن الضرورة الحثيثة لتعظيم العائد على المساهمين تجعل الشركات أكثر عرضة لاستخدام الأتمتة كطريقة خالصة لتوفير المال. على سبيل المثال، هو ينتقد بقوة قيام الشركات الكبرى باستبدال الموظفين بدوام كامل بموظفين بدوام جزئي منخفض الأجر حيث يقوم البرنامج الذي يتعامل معهم بالتلاعب بالجداول، كما يقول أوريلي، مثل «المكونات التي يمكن التخلص منها». والمدخرات الناتجة عن ذلك كثيرا ما تُحرث في عمليات إعادة شراء الأسهم وغيرها من السرقات المالية بدلا من البحث والتطوير Research and Development (اختصارها: R&D) والاستثمارات الرأسمالية وتدريب العمال وغيرها من الأمور التي تميل إلى خلق فرص عمل جديدة جيدة.

ويتعارض هذا في الواقع مع مصالح الشركات على المدى الطويل، لأنّ العمال ذوي الأجر الجيد اليوم لديهم القدرة بأن يصبحوا عملاء لمنتجات الغد. إلاّ أنّ الشركات قد انقادت وراء المكافآت عن طريق خفض التكاليف على المدى القصير، الذي يدعوه أوريلي «الخوارزميات التي تتحكم باقتصادنا ولم تخضع للفحص». ويُضيف: «في كل حديثه عن الإخلال، يكون وادي السيليكون Silicon Valley في كثير من الأحيان عبدًا لهذا النظام».

ما العمل؟ من بين أمور أخرى، يقترح أوريلي رفع الحد الأدنى للأجور وفرض الضرائب على الروبوتات، وعلى انبعاثات الكربون، والمعاملات المالية. وبدلا من متابعة شركات الطرح العام الأولي (Initial Public Offering المعروفة اختصاراً IPO) ومجاراة وول ستريت Wall Street، يعتقد أنّ على رواد الأعمال في مجال التقنيات نشر الثروة مع نماذج أخرى، مثل التعاونيات الأعضاء وهياكل الاستثمار التي تكافئ التفكير طويل الأجل. أما بالنسبة للدخل الأساسي العالمي، تعود الفكرة القديمة مرة أخرى بسبب الخوف من ألّا تجعل أجهزة الحواسيب قيمة للعمل البشري، ويبدو أوريلي مستعدا لتقبل احتمالية أن يكون ذلك حتميا في يوم من الأيام. لكنه لا يدعو إلى ذلك بعد. في الواقع، سيكون خيالا فاشلا إذا ما افترضنا أن تكون الخطوة التالية من مكاننا الحالي هي مجرد التخلي عن فكرة حصول معظم الناس على وظائف.

ففي المناخ السياسي اليوم، قد تبدو الزيادات الضريبية وغيرها من الخطوات التي يؤيدها أوريلي بعيدة المنال كجهاز حاسوب يحيل الرجل إلى التفكير في أنّ زوجته قد بُعثت من الموت. ولكن على الأقل أوريلي قلق بشأن المشاكل الصحيحة. فقبل أن يعرف أحدهم كيف يصنع ذكاء خارق، ذو حس سليم يمكن أن تخبرنا – النسخة البشرية – أنّ عدم الاستقرار الناجم بالفعل عن عدم المساواة الاقتصادية سيزداد سوءا إذا ما استُخدم الذكاء الاصطناعي لتضييق الغايات. شيء واحد مؤكد: نحن لن نحصل على الذكاء الخارق إذا اجتاح، الأثرياء الحاصلين على نسبة 99 بالمئة، وادي السيليكون مع مَذارٍ.■

برايان بيرغستاين Brian Bergstein هو محرر مساهم في استعراض معهد ماساتشوستس للتقنية MIT Technology Review ومحرر مجلة نيو لايف Neo.Life.

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى
إغلاق