أحد صفحات التقدم العلمي للنشر
تكنولوجياذكاء اصطناعي

أنظمة الذكاء الإصطناعي فائقة الحجم: هل يتوقف ذكاء الآلات على حجمها فحسب؟

الشبكات العصبية الضخمة التي تكتب بطلاقة لافتة للانتباه دفعت ببعض الخبراء إلى اقتراح أن زيادة حجم التكنولوجيا الحالية سيُفضي إلى قدرات لغوية مُماثلة للمستوى البشري، وفي نهاية المطاف سيؤدي ذلك إلى ذكاء آلة حقيقي

في عام 2020 عندما أُطلِق الذكاء GPT-3 [الذكاء الاصطناعي لنموذج التنبؤ باللغة من الجيل الثالثGenerative pre-trained Artificial intelligence ]، ترك انطباعا بأنه قد أتقن بالفعل اللغة البشرية، نظرا لتوليده سياقات نصية بطلاقة عند إصدار الأوامر له بذلك. بينما كان العالم يُحدق بذهول، أشار المراقبون المُحنكون إلى أخطائه العديدة وهندسته المُبسَّطة. وأصروا على أنها مجرد آلة لا عقل لها. غير أن هناك الآن أسباباً تقودُنا إلى الاعتقاد أن ذكاء اصطناعيا مثل الذكاء GPT-3 قد يُطوِّر قريباً قدرات تصل إلي مستوى قدرات الإنسان في اللغة والمنطق وغيرها من السمات المُميزة لما نعده ذكاء.

 والنجاح الذي حققه الذكاء GPT-3 قد تلخص في أمرٍ واحد: كان أكبر من أي جهاز ذكاء اصطناعي من نوعه، وهو ما يعني -تقريبا- أنه احتوى على المزيد من الخلايا العصبية  (العصبونات) الاصطناعية Artificial neurons. ولم يتوقع أحد أن هذا التغير في الحجم Scale سيُحدِث مثل هذا الفارق. ولكن مع اطراد تنامي حجم أنظمة الذكاء الاصطناعي، فإنها لا تُثبت أنها تشبه البشر في قدرتها على القيام بجميع أنواع المهام فحسب، بل إنها تظهر أيضاً القدرة على حل تحديات لم يسبق لها أن تعرضت لها.

ونتيجة لذلك؛ بدأ البعض في هذا المجال يعتقدون أن الدافع الذي لا مفر منهُ الذي يدفعنا نحو تصميم الأحجام الأكبر فالأكبر سيُفضي إلى ظهور أنظمة ذكاء اصطناعي ذات قُدراتٍ مُماثلة لقدرات البشر. ومن بين من يؤكدون ذلك صموئيل بومان Samuel Bowman، من جامعة نيويورك New York University، إذ يقول: “إن عمليات توسيع حجم المناهج الحالية توسيعاً كبيراً -خصوصا بعد عقد أو عقدين من التحسينات الحاسوبية- من المُرجح أن يسهِّل الوصول إلى إنتاج سلوك لغوي على مستوى الإنسان”.

سيكون ذلك عبارة عن نقلة نوعية إن تحقق ذلك. ويعتقد بعضٌ من الخبراء أن الذكاء الإصطناعي سيبلغ ذلك المستوى بفضل التصاميم الهندسية فحسب. وبالطبع فإن الكثيرين لا زالوا يُشككون في إمكانية حدوث ذلك. لكن عامل الوقت سيكون كفيلاً بإخبارنا. وفي الوقت الحالي يسعى بومان وغيرهُ جاهدين إلى تقييم ما يحدث حقاً عندما يبدو أن ذكاء اصطناعيا فائق المستوى ينفذ أشياء مُماثلة لما يقوم به البشر.

وبومان هو أحد أهم خبراء العالم فيما يتعلق بتقييم لُغة الذكاء الإصطناعي. عندما بدأ دراسته في الدكتوراه عام 2011 كانت “الشبكات العصبية” الاصطناعية Artificial neuronetworks قد بدأت لتوها بالهيمنة على هذا المجال والتغلغل فيه. وقد كانت الفكرة مستوحاة من الشبكات العصبية الحقيقية في الدماغ، وكانت الشبكات العصبية الاصطناعية  تتألف من وحدات معالجة مترابطة Processing units، أو من خلايا عصبية اصطناعية تسمح للبرامج Programs أن يتسنى لها التعلُّم. ويقول إيليا ساتسكيفر Ilya Sutskever، رئيس العلماء في الشركة أوبن أي آي  OpenAI لأبحاث الذكاء الاصطناعي في سان فرانسيسكو التي عَملت على تصميم الذكاء GPT-3، لفترة طويلة كان من غير الواضح ما إذا كانت الحواسيب ستكون قادرة على فعل شيء من هذا القبيل. ويُضيف قائلاً: “عندما كنت طالباً جامعياً أدرس علوم الحاسوب بدا ذلك مستحيلًا تمامًا. أما الآن؛ فقد صار أمراً عادياً”.

وبخلاف البرمجيات Software العادية، فإن الباحثين لا يعطون الشبكات العصبية تعليمات توجيهية. بل إنها مُصممة للتدرّب على مهمة مُعينة حتى تتعلم أداءها أداء جيداً. فبعد عرض مجموعة كبيرة من صور الحيوانات مع تقديم شرحٌ بشري لكل منها مثل كلمة “كلب” أو “قط”، يكون من المُمكن تدريب شبكة عصبية على التنبؤ بالتصنيف الصحيح للصور التي لم تُعرض عليها من قبل. وفي كل مرة تكون فيها الإجابة غير صحيحة، هناك طريقة منهجية لإخبار الشبكة العصبية بالخطأ، وبعد عرض ما يكفي من الأمثلة فإن الشبكة العصبية ستتحسن في التعرف على الحيوانات.

ولا تقتصر هذه الشبكات العصبية المعروفة أيضاً بـ “النماذج”Modles   على تحديد القطط والكلاب. ففي 1990 وجد جيفري إلمان  Jeffrey Elman- كان حينها في جامعة كاليفورنيا  University of California في سان دييغو- طريقة لتدريب شبكة عصبية لمعالجة اللغة. وقد وجد أن بمقدوره حذف كلمة من الجملة وتدريب الشبكة للتنبؤ بالكلمة المفقودة. وبإمكان نموذج إلمان أن تفعل ما هو أكثر قليلاً من مجرد معرفة الفرق بين الأسماء والأفعال، ومن دون الحاجة إلى تدخلات بشرية مُضنية لشرح الصور، وهي ما جعل الأمر مدهشا. إذ تمكن إلمان من إنتاج بيانات تدريبية ببساطة من عمليات حذف كلمات عشوائية.

 وفي نهاية المطاف أدرك الباحثون أنه من السهل إعادة تدريب نموذج لمعالجة مشكلات محدّدة. ويشتمل ذلك على الترجمة اللغوية والإجابة عن الأسئلة وتحليل المشاعر، على سبيل المثال تُقيس النماذج ما إذا كان تقييم فيلم من قبل البشر تقييم إيجابي أو سلبي.

وفي عام 2016، بحلول الوقت الذي حصل فيه بومان على درجة الدكتوراه، صارت نماذج اللغة تُتقن العديد من المهام المُعتادة. لم يزعم أحد أن هذه النماذج لديها ما يُشبه الذكاء ولا حتي من بعيد: فقد يكون تحليل المشاعر بسيطاً من خلال العثور على كلماتٍ مثل: “عظيم” أو “أحببته” في سياق التقييم النقدي. ولكن نماذج اللغة كانت تتحسن في المهام الصعبة أيضاً بالسرعة نفسها تقريباً التي يتمكن بها بومان من إعداد مهام جديدة.

والسر هو تدريب النماذج على المزيد من البيانات ـمن أجل مُعالجة مجموعة كبيرة من النصوص من الإنترنت ومصادر أخرى، وكان لزاماً أن تكون النماذج أكبر. وكان مجال الذكاء الإصطناعي يبني شبكات عصبية بطرق جديدة أيضاً؛ مما يُنشئ ترتيبات جديدة من الخلايا العصبية ذات توصيلات مختلفة. ففي عام 2017 أنشأ باحثو غوغل Google بُنية عصبية مُهندسة تسمى “ترانسفورمر” Transformer (المحوِّل) والتي أثبتت قابليتها الاستثنائية لتوسيع حجمها باطراد. وفي خِضمِ بحثهم لتحسين الأداء أفضل من أي وقت مضى، نجح الباحثون في ترقية نماذج قائمة على نموذج ترانسفورمر تعالج مئات الملايين من العوامل Parameters، وكلُ واحدٍ منها يُشبهُ الوصلات بين الخلايا العصبية، وصولا إلى مئات  البلايين منها في غضون بضع سنوات فقط.

 

المنطق الاصطناعي Artificial reasoning

هذه الاستراتيجية قد أثمرت بالفعل. إذ يقول ألكسندر راش Alexander Rush، من جامعة كورنيلCornell University في نيويورك وشركة هغينغ فيس Hugging Face للذكاء الاصطناعي “إن نموذج الترانسفورمر المتدرج حقق أموراً فاقت بأضعاف توقعاتي حول ما قد يمكن تحقيقه في مجال اللغة الطبيعية Natural language”. وبحلول أواخر عام 2020 استطاعت بُنية مُهندسة من المحولات تسمى بيرت  BERT التغلب على بعض التحديات الصعبة حقاً. وكان أحدها يشمل الفهم العام لقراءة نص. أما التحدي الآخر؛ فقد كان يقوم على اختبار قدرات تتعلق بالتفكير البديهي Common sense reasoning. وقد طُلب إلى النماذج تحليل جُمل مثل “الحقيبة لن تناسب صندوق السيارة، لأنها كبيرة جداً”، وكان التحدي تحديد ما إذا كانت “كبيرة” تُشير إلى الحقيبة أو صندوق السيارة. بالطبع، فإن الإجابة الصحيحة هي الحقيبة. يقول بومان إن حل هذه المسألة يتطلب فهماً عميقاً. وقد تمكنت النماذج من حل المشكلة على المستوى البشري، بمعنى أنها نفذت مهامَّها مثل البشر بالفعل.

في السنوات القليلة الماضية، كان التقدم سريعًا جدا. وبينما كانت الابتكارات البنيوية مثل الترانسفورمر ابتكارات مهمة، يمكن أن يُعزى معظم هذا التقدم إلى الحجم. يقول بومان: “كان الاتجاه الواضح جدًا هو أن معظم الاختبارات التي يمكننا وضعها يمكن حلها بمجرد إضافة المزيد من الحجم”.

تتجلى هذه العلاقة بين الحجم والذكاء في أوضح صورها في حالة الذكاء GPT-3 الذي أُطلق في شهر مايو من عام 2020. وبإضافة 175 بليون معامل كان الذكاء GPT-3 مجرد نسخة متطورة من الذكاء GPT-2 الذي أُطلق في فبراير من عام 2019 والمزود بـــ 1.5 بليون معامل. ومع ذلك، فقد برهن الذكاء GPT-3 على حدوث طفرة هائلة في قدراته اللغوية، لننتقل من كتابة فقرات مترابطة بصعوبة شديدة إلى إنتاج مقالات تتألف من 2000 كلمة يُحْتَمَلُ أن ترقى إلى مستوى العمل الإنساني. وتقول يجين تشوي  Yejin Choi، من جامعة واشنطن University of Washington ومعهد ألين لأبحاث الذكاء الإصطناعي Allen Institute for AI وكليهما في سياتل: “إنها حقاً ظاهرة مدهشة نظرا لنوع اللغة التي تتمكن من إنتاجها”.

من المؤكد أنه لا يزال من السهل اكتشاف أعمال النماذج اللغوية. فإذا سألت الذكاء GPT-3 عن عدد العيون التي يمتلكها القدم؛ فقد يُجيبكم بأنها اثنتان. ولا يزالُ هناك الكثير من القدرات التي لا تتمتع بها نماذج مثل الذكاء GPT-3، مثل فهم السبب والنتيجةCause and effect : فهم أي من العبارات “بدأت تمطر” و”السائق الذي شغل المساحات” يجب أن تأتي قبل الأخرى.

 وعلى الرغم من ذلك، يُشيرُ تحليل المكاسب التي تحققت بالفعل إلى أن مثل هذه العيوب لن تكون مُستعصية على الحل. ففي عام 2020 وجد  باحثو الشركة OpenAI في الواقع أن فوائد الحجم يمكن التنبؤ بها. أنها تتبع قانونا واضحا: لكل زيادة في حجم نموذج على غرار الذكاء GPT  فإنهُ يستطيع التنبؤ بكلمة مفقودة على نحوٍ أفضل قليلاً، ويُترجم ذلك إلى تحسين الأداء في جميع أنواع المهام اللغوية الأخرى. وقد تبيّن هذا الاتجاه في جميع النماذج التي تتراوح شبكاتها العصبية من حجم دماغ الدودة الأسطوانية وصولا إلى حجم دماغ الأرنب. يقول جاريد كابلان Jared Kaplan، من جامعة جونز هوبكنز  Johns Hopkins University في ميريلاند الذي كان يعمل في الشركة OpenAI: “إن هذا لا يُثبت أنها ستتحسن إلى الأبد… ولكن تخميني هو أن التحسن رُبما سيستمر لفترة طويلة”.

إضافة إلى ذلك، فإن القدرات الجديدة قد تظهر من العدم. على سبيل المثال، أظهرت النسخة المُصغرة من الذكاء GPT-3 قُدرة ضئيلة على الحساب – وهو أمرٌ لا يُثير الدهشة، لأنه مُدرب فقط على التنبؤ بالكلمة التالية. ولكن قُدرات حسابية أفضل ظهرت في النسخة ذات الحجم الكامل. يقول جاشا سول ديكستين Jascha Sohl-Dickstein، أحد أعضاء مجموعة أبحاث الذكاء الاصطناعي لدى غوغل برين Google Brain: “الحجم وحدهُ يمكن أن يؤدي إلى انثباق قدرات جديدة مفاجئة”.

في ورشة عمل حديثة، توقع سول-ديكستين أنه نظرا لمعدل تحسن النماذج  في مهام لغوية مختلفة، فإنه سيكون من المتوقع حل جميع هذه المهام عندما يصل الاستثمار في تطوير النماذج  إلى مستوى الاستثمار في مصادم الهادرونات الكبير Large Hadron Collder؛ التجربة الفيزيائية التي يشارك فيها علماء من عدة جنسيات بالقرب من جنيف في سويسرا – أي من 10 بلايين دولار إلى 100 بليون دولار، وهو مبلغ كبير ولكن لا يصعُبُ توفيره.

إن حل كل مُهمة لغوية يمكن تخيُلها لا يعني بالضرورة أن النموذج ذكي. فالسلوكيات اللغوية هي مجرد مجموعة فرعية مما يقوم به البشر. ومع هذا، فإن إعادة توليد هذه القُدرات في الآلة سيكون أمراً هائلاً لأنهُ يبدو وكأنهُ خطوة عملاقة نحو تحقيق الذكاء الاصطناعي العام، وهو الذكاء الاصطناعي الذي يستطيع أن يفعل أي شيء يفعله البشر بما في ذلك التحسين الذاتي. حتى راش المتشكك بشدة في إمكانات ذكاء الآلة يعتقد أن زيادة الحجم قد ألقى عبء الإثبات الآن على عاتق أولئك الذين يدّعون أن أصعب مشكلات اللغة ستظل مستعصية. ويُضيف أيضاً:”لقد بذل الأشخاص الذين يُطورون هذه النماذج كل ما في وسعهم لإظهار أن زيادة الحجم ستتغلب على هذه المشكلات”.

 ولم يمر هذا مرور الكرام. بعد وقت قصير من إطلاق النموذج  GPT-3  لفت باحثُ مستقل يدعى غويرن برانوين Gwern Branwen الانتباه إلى الإنجازات المذهلة على صعيد الحجم في منشور مدونة قرأه باحثو الذكاء الاصطناعي على نطاق واسع. كتب برانوين:” إذا كان بإمكان المرء فقط العودة إلى عشر سنوات أو حتى خمس سنوات مضت، لشاهدنا جميع باحثين الذكاء الإصطناعي وهم في دهشة [مما أمكن تحقيقه]”.

ولكن من المدهش أن عدداً قليلاً من الآخرين لا يزالون يصدحون بأعلى أصواتهم. وإلى حدٍ ما قد يُعزى ذلك إلى حذر معين منسوج في لُحمة المجتمع. يقول كولين رافيل Colin Raffel، من جامعة نورث كارولينا University of North Carolina: “هناك الكثير من الأمثلة في مجالنا، خاصة فيما يتعلق بالوعد المبالغ فيه والإنجاز دون ما هو موعود”.

الأمر الآخر بالطبع هو أنهُ ليس كل شخص مقتنع بقوى زيادة الحجم. ويعتقد البعض مثل رافيل أن زيادة الحجم من غير المتوقع أن تقودنا إلا إلى هذا الحد. ويقول إنه إلى حد ما يُحتمل التفكير في النماذج كمحركات للحفظ Memorisation engines. كلما ازدادت في الحجم، فإنها تحفظ كميات أكبر. ولكن لكي يحفظ النموذج كل شيء أو حتى بقدر ما يحفظه البحث باستخدام غوغل مثلاً، فإن حجمه لابد أن يكون كبيراً جداً لدرجة لا يمكن تصورها. كما يُضيفُ رافل قائلاً: “هذا على الأرجح يتجاوز حدود ما يتسنى لنا تدريبه حالياً”.

غير أن الحجة المُضادة تقول إنهُ إذا كانت النماذج المُصغرة قادرة بالفعل على التفكير المنطقي الشبيه بالإنسان، فإنها لا تحتاج إلى حفظ كل شيء، لأن البشر لا يفعلون ذلك في نهاية المطاف. ولا شك في الوقت الحاضر أن المنطق على المستوى البشري هو بعيد جدا عن قدرات نماذج اللغة الحالية. السؤال المطروح هو: هل ستتمكن من التوصل إلى ذلك من خلال زيادة الحجم فقط؟

تشوي لا تعتقد بإمكانية حدوث ذلك. وهي تزعم أن الحجم وحدهُ لن يكون كافياً لمنح البرمجيات القدرة على الاستدلال بما يشبه الاستدلال البشري. فهي تعتقد أن حقيقة أن النماذج الحالية تتوقع الكلمة التالية فقط تفرض قيوداً عميقة على ما يُتوقع تعلمه. تقول تشوي: “إذا سألت (نموذجا)” كم عدد جوانب الكرة؟ “سيُجيب أربعة لأنه يحاول أن يكون محظوظا عند التنبؤ بأي كلمة ستأتي لاحقاً”. وتقول إن مثل هذا التصميم الهندسي البسيط لا يمكن أبداً أن يكتسب منطقاً شبيهٌ تماماً بالإنسان.

ويرى آخرون أن هناك الآن أسبابًا للاختلاف في الرأي. كثيرا ما يُقال إن النماذج عندما تنجح في التفكير المنطقي يكون ذلك لأنها تحفظ فحسب أنماطاً من أمثلة لا تحصى. يقول بومان: “هناك دائمًا نظرية مفادها أنك تعلمت للتو سر الاختبار”. ولكن الذكاء GPT-3 ليس بحاجة إلى أمثلة للاستعداد للاختبار. إذا شرحت مفهوماً مختلقاً يُسمى “بورينغو” Burringo وأخبرته أنه عبارة عن سيارة سريعة جداً، فسيبدأ الذكاء GPT-3 على الفور بالتحدث  بمنطقية عن إبقاء البورينغو في المرآب.

إن القدرة على تعلم أشياء جديدة من الصفر هي إحدى الإشارات الكثيرة التي تشير إلى أن النماذج قادرة على أن تجادل منطقياً مثل البشر، كما يقول بومان. ويُضيف قائلاً: “وهو ما يدحض أن قدراتك مرتبطة تحديداً بالإختبار ولا تنطبيقات لها في الواقع”.

 سوف يستغرق الأمر وقتاً لمعرفة إلى أي مدى سيصل زيادة الحجم بالذكاء الاصطناعي. يؤمن الكثيرون بضرورة اتباع أساليب مُختلفة لتحقيق المزيد من التقدم. مثلا، تعمل تشوي على تعزيز البنى الكبيرة. إنها تسعى إلى منحها القدرة على التعلم التفاعلي، وطرح الأسئلة، والتشارك مع الآخرين، بالطريقة التي يتبعها البشر. من جانبه يُريدُ كابلان أن تكون للنماذج القدرة على تدريب نفسها على النصوص المهمة بدلاً من الاعتماد على المكتبات التي لا نهاية لها مثل المناقشات على ريديت  Reddit أو المقالات العشوائية في ويكيبيديا  Wikipedia.

 ولكن أياً كانت الطريقة التي قد نتوصل بها إلى الذكاء الاصطناعي العام، وما إذا كان ذلك بالفعل هدفاً واقعياً، فإن الأمر الواضح من خلال زيادة حجم نماذج اللغة هو أننا نحتاج إلى طرق أكثر تطوراً لتقييم ذكاء منظومة الذكاء الاصطناعي وكيفية مقارنتها بذكاء البشر. وتضيف إيلي بافليك  Ellie Pavlick، من جامعة براون  Brown University في رود آيلاند وشركة غوغل أيه آي Google AI: “هناك الكثير من الأسباب التي تجعل أي نموذج نموذجا ناجحا أو فاشلا في مهمة ما وبعضها يتفق مع أن يكون الشيء ‘ذكيا’، إذا جاز التعبير، وبعضها لا يتفق”.

لقد بدأنا للتو بتطوير الأدوات المطلوبة لمعرفة ما إذا كانت ما تقوم به النماذج اللغوية يشبه بالفعل القدرات البشرية. ولكن الأعمال الأخيرة تمخضت بالفعل عن بعض النتائج المثيرة للاهتمام. ففي إحدى الدراسات بحث بافليك عما إذا كانت النماذج تتعلم المنطق تعلماً منهجياً، وهو ما هو معروف عن البشر. ففي الجملة ” The dog that chases the cats runs fast” لا يحتاج البشر إلى رؤية الجملة من قبل لمعرفة أن فعل “Runs” هو الفعل الصحيح وليس “Run”. فهم يدركون ببساطة أن هذا جزء من نمط عام ومنهجي. وقد بيّن بافليك -مع قدر من التحفظ- أن النماذج القائمة على بيرتBERT-based  تقوم بعمليات منطقية منهجية مشابهة. كما تقول:”ليس الأمر  كما لو كان لديك نموذجٌ يحفظ المدخلات والمخرجات ويربطها ببعضها اعتباطياً… بل يبدو أن لديها تمثيلات داخلية تتفق مع ما نبحث عنه”.

زيادة الحجم نفسه آخذ بالتغير الآن. وقد اكتشف الباحثون مؤخراً كيفية ابتكار نماذج يمكنها تدريب نفسها على الصور والفيديوهات إضافة إلى الكلمات. وهذا يسمح لها بالتعلم من بيانات أكثر إتساعاً، وذات طبيعة أكثر ثراء، أشبه بما يفعله البشر. ومن المقرر قريباً أن تنشر غوغل نتائج عمل نماذج ذكاء اصطناعي يتألف من تريليون معامل وهو الأكبر حتى الآن. ومن يدري ما الإلهام الجديد الذي سيكشف عنه؟ يقول بومان : “أنا متوتر  ويتملكني الفضول والحماس”. ويقول كابلان: “يتعين علينا أن نصب اهتمامنا على الأمر”.

هل تعمل أنظمة الذكاء الاصطناعي مثل الأدمغة الحقيقية؟

في السنوات القليلة الماضية، تم تكبير حجم Scaling الشبكات العصبية Neural networks إلى أضعاف مضاعفة-وهذه الشبكات العصبية هي المنصات الأساسية للعديد من أنظمة الذكاء الاصطناعي الأكثر تطورا. والسعي إلى إضافة المزيد من المعاملات Parameters -بما يماثل تقريبًا الوصلات بين الخلايا العصبية في دماغ حقيقي- صار الآن ممارسة قياسية (انظر: المقالة الرئيسية). ولكن ما الذي جعل الناس يعتقدون ببساطة أن مضاعفة عدد المعاملات مضاعفات فائقة العدد سيجعل البرمجيات الغبية أكثر ذكاءً؟

إيليا ساتسكيفر Ilya Sutskever هو كبير العلماء في شركة أوبن أيه آي OpenAI ومقرها سان فرانسيسكو، والتي استثمرت ملايين الدولارات لتطوير الذكاء GPT-3، وهو ذكاء اصطناعي يعالج اللغة أُطلق في عام 2020 بـ 175 بليون معامل، وهو عدد ضخم. وألهم الدماغ البيولوجي ساتسكيفر لزيادة حجم الذكاء الاصطناعي. بالتأكيد، إذا تخيلت أن الشبكات العصبية الاصطناعية هي مثل الشيء الحقيقي، فإن زيادة الحجم هو أمر منطقي تمامًا. يقول ساتسكيفر: “إن عقل حشرة صغيرة لن يكون ذكيًا جدًا، بغض النظر عن مقدار ما تعلمه لها”.

الشبكات العصبية الاصطناعية ليست هي الشيء الحقيقي بالطبع. عبر معظم تاريخها، كان يُنظر إليها على أنها مجرد تقديرات تقريبية سيئة. لكن في السنوات الأخيرة، بدأنا باكتشاف بعض أوجه التشابه المثيرة للاهتمام في طريقة عملهما.

مثلا، من الممكن الآن مقارنة الذكاء الاصطناعي اللغوي بالدماغ وذلك من جوانب مختلفة. يمكنك إلقاء نظرة على توقيتها، ومعرفة الوقت الذي يستغرقه تحليل الكلمة التالية. يمكنك أيضًا إلقاء نظرة على دواخلها لمعرفة ما إذا كانت الشبكة العصبية لها نفس نمط التنشيط Pattern of activations – ما يعادل إطلاق الخلايا العصبية للإشارة العصبية- كما يفعل الدماغ الذي يمكن تتبع نشاطه بالتصوير بالرنين المغناطيسي MRI. ومن المدهش، مقارنة ببعض مناطق الدماغ، يبدو أن أنظمة الذكاء الاصطناعي للغة تتبع النمط نفسه تقريبًا. تقول ماريا تونيفا من جامعة برينستون: “هناك تشابه كبير بين الاثنين”.

مؤخرا، بيّن مارتن شريمبف Martin Schrimpf من معهد ماساتشوستس للتكنولوجيا Massachusetts Institute of Technology وزملاؤه أن زيادة حجم الشبكات العصبية يجعل أنماطها أكثر شبهاً بالدماغ. ويقول شريمبف: “هناك تحسن سلس نسبيًا عند زيادة الحجم”. لذا، على الرغم من أنه بدا من الطبيعي منذ فترة طويلة افتراض أن الشبكات العصبية الاصطناعية لا تعمل بأي طريقة من الطرق مثل الأدمغة الحقيقية، يبدو أنه قد يتعين علينا إعادة التفكير في الأمر.

بقلم:   موردخاي رورفيغ

ترجمة: شوان حميد

© 2021, New Scientist, Distributed by Tribune Content Agency LLC

تسوق لمجلتك المفضلة بأمان

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني.

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

I agree to these terms.

زر الذهاب إلى الأعلى