أحد صفحات التقدم العلمي للنشر
ملف خاص

كيف ستغير هذه اللحظة للذكاء الاصطناعي المجتمع إلى الأبد (وكيف لن تفعل ذلك)

ليس هناك شك في أن أحدث التطورات في الذكاء الاصطناعي من OpenAI وGoogle وBaidu وغيرها أكثر إثارة للإعجاب مما حدث من قبل، لكن هل نحن في فقاعة أخرى من ضجيج الذكاء الاصطناعي؟

بقلم جيريمي هسو

هذه اللحظة للذكاء الاصطناعي Artificial intelligence (اختصاراً: الذكاء الاصطناعي AI) لا مثيل لها من قبل. تقدمت أنظمة الذكاء الاصطناعي AI القوية القائمة على اللغة إلى الأمام من حيث القدرة، ويمكنها الآن إنتاج رزم من النثر المعقول الذي لا يمكن غالباً تمييزه عن النص المكتوب من قبل البشر. فيمكنها الإجابة عن الأسئلة الفنية الصعبة، مثل تلك التي تُطرح على المحامين ومبرمجي الحاسوب. يمكنها حتى المساعدة على تدريب أنظمة الذكاء الاصطناعي AI الأخرى بشكل أفضل.

ومع ذلك، فقد أثارت أيضاً مخاوف جدية. دعا باحثون بارزون في مجال الذكاء الاصطناعي AI وقادة صناعة التكنولوجيا مختبرات الأبحاث إلى إيقاف أكبر التجارب الجارية في الذكاء الاصطناعي AI مؤقتاً لمدة ستة أشهر على الأقل من أجل إتاحة الوقت لتطوير وتنفيذ إرشادات السلامة. بل ذهب المنظمون في إيطاليا إلى أبعد من ذلك، حيث قاموا مؤقتاً بحظر أحد برامج الدردشة الرائدة في مجال الذكاء الاصطناعي AI.

في قلب كل ذلك، توجد نمذجات لغة كبيرة Large language models وأنواع أخرى من الذكاء الاصطناعي التوليدي Generative AI الذي يمكنه إنشاء نصوص وصور استجابة للطلبات البشرية. تعمل الشركات الناشئة المدعومة من أقوى شركات التكنولوجيا في العالم على تسريع نشر أنظمة الذكاء الاصطناعي التوليدية هذه منذ عام 2022 – مما يتيح لملايين الأشخاص الوصول إلى بوتات محادثة مقنعة، ولكن غالباً ما تكون غير دقيقة، وإغراق الإنترنت بالكتابة والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي AI بطرق يمكن أن إعادة تشكيل المجتمع.

لطالما صاحب أبحاث الذكاء الاصطناعي AI الضجيج. لكن يبدو أن أولئك الذين يعملون على دفع حدود ما هو ممكن وأولئك الذين يطالبون بضبط النفس يتفقون على شيء واحد: يمكن أن يكون للذكاء الاصطناعي التوليدي تأثيرات مجتمعية أوسع بكثير من أنظمة الذكاء الاصطناعي AI التي جاءت من قبل.

الازدهار والكساد
قصة الذكاء الاصطناعي AI هي واحدة من الدورات المتكررة التي تنطوي على زيادة في الاهتمام والتمويل تليها فترات هدوء بعد فشل توقعات الناس العظيمة. في خمسينات القرن العشرين، كان هناك قدر كبير من الحماس حول إنشاء آلات من شأنها أن تعرض ذكاءً على مستوى الإنسان. ولكن هذا الهدف النبيل لم يتحقق لأن أجهزة وبرامج الحاسوب سرعان ما واجهت قيوداً تقنية. كانت النتيجة ما يسمى شتاء الذكاء الاصطناعي AI في السبعينات وأواخر الثمانينات، عندما تبخر تمويل الأبحاث وتضاءل اهتمام الشركات.

لقد مثل العقد الماضي شيئاً من صيف الذكاء الاصطناعي AI للباحثين الذين يتطلعون إلى تحسين قدرات التعلم بالذكاء الاصطناعي AI والشركات التي تسعى إلى تطبيق أنظمة الذكاء الاصطناعي AI. بفضل مجموعة من التحسينات الهائلة في قوة الحاسوب وتوفر البيانات، حقق النهج الذي يستخدم أنظمة الذكاء الاصطناعي AI المستوحاة بشكل فضفاض من الدماغ نجاحاً كبيراً.

تستخدم قدرات التعرف على الصوت والوجه في الهواتف الذكية العادية مثل هذه الشبكات العصبية Neural networks، كما تفعل أنظمة الذكاء الاصطناعي AI المكثفة حسابياً التي تغلبت على أفضل اللاعبين في العالم في اللعبة اللوحية القديمة Go، وحلت التحديات العلمية المستعصية سابقاً، مثل التنبؤ بهيكل تقريباً جميع البروتينات المعروفة في العلم.

عادة ما تكشفت التطورات البحثية في هذا المجال على مدى سنوات، مع تطبيق أدوات الذكاء الاصطناعي AI الجديدة على المهام المتخصصة أو يتم دمجها بشكل غير مرئي في المنتجات والخدمات التجارية الحالية، مثل محركات البحث على الإنترنت.

ولكن خلال الأشهر القليلة الماضية، أصبحت أنظمة الذكاء الاصطناعي التوليدية، والتي تستخدم أيضاً الشبكات العصبية، محور جهود صناعة التكنولوجيا لإخراج أنظمة الذكاء الاصطناعي AI من مختبرات الشركات إلى أيدي الجمهور. ومع تجربة الأفراد والمؤسسات لهذه النمذجات، كانت النتائج فوضوية، ومثيرة للإعجاب في بعض الأحيان – وغالباً غير متوقعة.

تقول تيمنيت غيبرو Timnit Gebru، مؤسسة معهد أبحاث الذكاء الاصطناعي الموزع Distributed AI Research Institute في كاليفورنيا: «لم أكن أتوقع حقاً انفجار النمذجات التوليدية التي نشهدها الآن… لم أرَ قطُّ مثل هذا الانتشار السريع للمنتجات بهذه السرعة».

جاءت الشرارة التي أشعلت الانفجار من شركة OpenAI، وهي شركة مقرها سان فرانسيسكو، عندما أطلقت نموذجاً أولياً عاماً من برنامج الدردشة ChatGPT الذي يعمل بالذكاء الاصطناعي AI في 30 نوفمبر 2022 وجذبت مليون مستخدم في خمسة أيام فقط. تابعت شركة مايكروسوفت Microsoft، وهي مستثمرة ببلايين الدولارات في OpenAI، في فبراير من خلال توفير Chatbot مدعوماً بالتكنولوجيا نفسها المستخدمة في ChatGPT من خلال محرك بحث Bing – وهي محاولة واضحة لتحدي هيمنة غوغل Google الطويلة على سوق محركات البحث.

دفع ذلك غوغل إلى الرد في مارس 2023 من خلال إطلاق برنامج الدردشة الآلي الخاص بها، بارد Bard. استثمرت غوغل أيضاً 300 مليون دولار في أنثروبيك Anthropic، وهي شركة ناشئة للذكاء الاصطناعي AI أسسها موظفون سابقون في OpenAI، والتي أتاحت برنامج كلود Claude chatbot لعدد محدود من الأشخاص والشركاء التجاريين، بدءاً من مارس. وبالمثل، انضمت شركات التكنولوجيا الصينية الكبرى، مثل بايدو Baidu وعلى بابا Alibaba، إلى السباق لدمج بوتات الدردشة بالذكاء الاصطناعي AI في محركات البحث وغيرها من الخدمات.

تؤثر أنظمة الذكاء الاصطناعي التوليدية هذه بالفعل على مجالات مثل التعليم، حيث حظرت بعض المدارس ChatGPT لأنها يمكن أن تولد مقالات كاملة غالباً ما لا يمكن تمييزها عن كتابات الطلبة. فقد أظهر مطورو البرمجيات أن ChatGPT يمكنه إيجاد وإصلاح الأخطاء في كود البرمجة وكذلك كتابة برامج معينة من البداية. استخدم وكلاء العقارات ChatGPT لإنشاء قوائم بيع جديدة ومنشورات على وسائل التواصل الاجتماعي، وتبنت شركات المحاماة بوتات الدردشة بالذكاء الاصطناعي AI لصياغة العقود القانونية. تختبر المعامل البحثية الحكومية الأمريكية كيف يمكن لتقنية OpenAI أن تبحث بسرعة في الدراسات المنشورة للمساعدة على توجيه التجارب العلمية الجديدة.

لقد يواجه ما يقدر بنحو 300 مليون وظيفة بدوام كامل أتمتة جزئية على الأقل من أنظمة الذكاء الاصطناعي التوليدية، وفقاً لتقرير صادر عن محللين في بنك الاستثمار غولدن ساكس Goldman Sachs. ولكن، كما يكتبون، يعتمد هذا على ما إذا كان «الذكاء الاصطناعي التوليدي يفي بقدراته الموعودة» – وهو تحذير مألوف ظهر من قبل في دورات الازدهار والكساد في الذكاء الاصطناعي AI.

ما هو واضح هو أن المخاطر الحقيقية للذكاء الاصطناعي AI التوليدي تظهر أيضاً بوتيرة مذهلة. غالباً ما تقدم ChatGPT وبوتات الدردشة الأخرى أخطاءً واقعية تشير إلى أحداث أو مقالات مختلقة تماماً، بما في ذلك، في حالة واحدة، فضيحة تحرش جنسي مخترعة اتهمت شخصاً حقيقياً زوراً. وأدى استخدام ChatGPT أيضاً إلى فضائح تتعلق بخصوصية البيانات بما في ذلك تسرب بيانات الشركة السرية، إلى جانب تمكن مستخدمي ChatGPT من رؤية سجلات الدردشة الخاصة بالأشخاص الآخرين ومعلومات الدفع الشخصية.

أثار الفنانون والمصورون مخاوف إضافية بشأن الأعمال الفنية الناتجة من الذكاء الاصطناعي AI والتي تهدد سبل عيشهم المهنية، كل ذلك في حين تقوم بعض الشركات بتدريب الذكاء الاصطناعي التوليدي على أعمال هؤلاء الفنانين والمصورين دون تعويضهم. يمكن أن تؤدي الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي AI أيضاً إلى معلومات خاطئة جماعية، كما يتضح من الصور المزيفة التي تم إنشاؤها للرئيس الأمريكي دونالد ترامب Donald Trump أثناء إلقاء القبض عليه، والبابا فرانسيس Pope Francis يرتدي سترة بيضاء أنيقة منفوخة، وكلاهما انتشر بشكل كبير. وخدع الكثير من الناس معتقدين أنها صور حقيقية.

توقعت غيبرو العديد من هذه المخاطر المحتملة عندما كتبت هي وزملاؤها عن مخاطر النمذجات اللغوية الكبيرة في ورقة بحثية أساسية في عام 2020، عندما كانت قائدة مشاركة لفريق الذكاء الاصطناعي AI الأخلاقي في غوغل. وصفت غيبرو إجبارها على الخروج من غوغل بعد أن طلبت إليها قيادة الشركة سحب الورقة البحثية، على الرغم من أن غوغل وصفت رحيلها بأنه استقالة وليس فصلاً. تقول غيبرو: «يبدو الوضع الحالي كأنه دورة دعاية أخرى، لكن الاختلاف هو أنه توجد الآن منتجات فعلية تسبب الضرر».

تطوير أنظمة الذكاء الاصطناعي التوليدية
تعتمد تقنية الذكاء الاصطناعي التوليدية على أبحاث استمرت عقداً من الزمن، وجعلت أنظمة الذكاء الاصطناعي AI أفضل بشكل ملحوظ في التعرف على الصور وتصنيف المقالات وفقاً للموضوع، وتحويل الكلمات المنطوقة إلى كلمات مكتوبة، كما يقول أرفيند نارايانان Arvind Narayanan من جامعة برينستون Princeton University. من خلال قلب هذه العملية، يمكنهم إنشاء صور تركيبية عند إعطاء النظام وصفاً، أو إنشاء أوراق بحثية حول موضوع معين أو إنتاج نسخ صوتية من نص مكتوب. يقول نارايانان: «إن الذكاء الاصطناعي التوليدي يجعل العديد من الأشياء الجديدة ممكنة حقاً»، على الرغم من صعوبة تقييم هذه التكنولوجيا، كما يقول.

نمذجات اللغات الكبيرة هي أعمال هندسية مفعمة بالحيوية، تستخدم كميات هائلة من قوة الحوسبة في مراكز البيانات التي تديرها شركات مثل مايكروسوفت وغوغل. إنها بحاجة إلى كميات هائلة من بيانات التدريب التي غالباً ما تستخرجها الشركات من مستودعات المعلومات العامة على الإنترنت، مثل ويكيبيديا Wikipedia. تعتمد التقنية أيضاً على أعداد كبيرة من العاملين البشريين لتقديم التغذية الراجعة Feedback لتوجيه أنظمة الذكاء الاصطناعي AI في الاتجاه الصحيح أثناء عملية التدريب.

ولكن أنظمة الذكاء الاصطناعي AI القوية الصادرة عن شركات التكنولوجيا الكبيرة تميل إلى أن تكون أنظمة مغلقة تقيد وصول الجمهور أو المطورين الخارجيين. يمكن للأنظمة المغلقة أن تساعد على التحكم في المخاطر والأضرار المحتملة للسماح لأي شخص بتنزيل واستخدام أنظمة الذكاء الاصطناعي AI، ولكنها أيضاً تركز القوة في أيدي المنظمات التي طورتها دون السماح بأي مدخلات من العديد من الأشخاص الذين يمكن أن تؤثر أنظمة الذكاء الاصطناعي AI في حياتهم.

تقول إيرين سليمان Irene Solaiman، مديرة السياسات في Hugging Face، وهي شركة تطور أدوات لمشاركة كود الذكاء الاصطناعي AI ومجموعات البيانات: «إن الشاغل الأكثر إلحاحاً في اتجاهات الانغلاق هو مدى توفر عدد قليل من النماذج خارج عدد قليل من شركات المطورين».

يمكن رؤية هذه الاتجاهات في كيفية تحرك OpenAI نحو موقف يصر على الخصوصية ومغلق من حيث تقنيتها المستخدمة، على الرغم من بدايتها كمنظمة غير ربحية مكرسة لتطوير الذكاء الاصطناعي AI. فعندما قامت OpenAI بترقية تقنية AI الأساسية لـ ChatGPT إلى GPT-4، استشهدت الشركة بـ «المشهد التنافسي وآثار السلامة للنمذجات واسعة النطاق مثل GPT-4» كسبب لعدم الكشف عن كيفية عمل هذه النمذجة.

هذا النوع من المواقف يجعل من الصعب على المراجعين المستقليين تقييم قدرات وقيود أنظمة الذكاء الاصطناعي التوليدية، مما يحتمل أن يؤجج الضجيج الدائر حولها. يقول لي فنسيل Lee Vinsel، مؤرخ التكنولوجيا في جامعة فيرجينيا للتكنولوجيا Virginia Tech: «تخلق فقاعات التكنولوجيا الكثير من الطاقة العاطفية – الإثارة والخوف – لكنها بيئات معلومات سيئة».

تتضمن العديد من فقاعات التكنولوجيا كلاً من الضجيج وما يصفه فنسيل بأنه «ضجيج نقدي» – وهو النقد الذي يضخم الضجيج التكنولوجي من خلال أخذ ادعاءات الشركات الأكثر إثارة في ظاهرها وقلبها للحديث عن المخاطر الافتراضية.

يمكن ملاحظة ذلك في الرد على ChatGPT. ويقول بيان مهمة OpenAI إن الشركة مكرسة لنشر فوائد الذكاء العام الاصطناعي AI – أنظمة الذكاء الاصطناعي AI التي يمكنها التفوق على البشر في كل مهمة فكرية. إن ChatGPT بعيد جداً عن هذا الهدف، ولكن في 22 مارس 2023، وقّع باحثو الذكاء الاصطناعي AI -مثل يوشوا بنجيو Yoshua Bengioوشخصيات صناعة التكنولوجيا مثل إيلون ماسك Elon Musk – على خطاب مفتوح يطلب من مختبرات الأبحاث إيقاف تجارب الذكاء الاصطناعي AI العملاقة مؤقتاً، مع الإشارة إلى الذكاء الاصطناعي AI على أنه «عقول غير بشرية في النهاية قد تفوق عددنا، ويتفوق علينا، ويحل محلنا».

حذر الخبراء الذين قابلتهم نيو ساينتست New Scientist من أن الضجيج والنقد يمكن أن يصرف الانتباه عن المهمة العاجلة لإدارة المخاطر الفعلية من أنظمة الذكاء الاصطناعي التوليدية.

على سبيل المثال، يمكن لـ GPT-4 أتمتة العديد من المهام، وإنشاء معلومات مضللة على نطاق واسع، والسيطرة على هيمنة عدد قليل من شركات التكنولوجيا، وزعزعة الديمقراطيات، كما يقول دارون أسيموغلو Daron Acemoglu، الخبير الاقتصادي في معهد ماساتشوستس للتكنولوجيا Massachusetts Institute of Technology. ويتابع قائلا: «يمكنها القيام بهذه الأشياء حتى من دون الاقتراب من الذكاء الاصطناعي AI العام».

يقول أسيموغلو إن هذه اللحظة هي «منعطف حاسم» للجهات التنظيمية الحكومية لضمان أن تساعد هذه التقنيات العمال وتمكّن المواطنين، و«لكبح أباطرة التكنولوجيا الذين يتحكمون في هذه التكنولوجيا».

يحتاج العديد من أنظمة الذكاء الاصطناعي إلى قدر كبير من قوة الحوسبة من مراكز البيانات الكبيرة.

يضع المشرعون في الاتحاد الأوروبي European Union اللمسات الأخيرة على قانون الذكاء الاصطناعي Artificial Intelligence Act الذي من شأنه أن يضع أول معايير عامة في العالم لتنظيم هذه التكنولوجيا. يهدف التشريع إلى حظر أو تنظيم أنظمة الذكاء الاصطناعي AI عالية الخطورة، مع النقاش المستمر حول تضمين ChatGPT وأنظمة الذكاء الاصطناعي التوليدية المماثلة ذات الاستخدامات العامة للأغراض العامة ضمن فئة «المخاطر العالية». وفي الوقت نفسه، حظر المنظمون في إيطاليا ChatGPT مؤقتاً بسبب مخاوف من أنه قد ينتهك قوانين خصوصية البيانات الحالية.

واقترح معهد AI الآن AI Now Institute في نيويورك وغيره من خبراء أخلاقيات الذكاء الاصطناعي AI مثل غيبرو وضع عبء المسؤولية على شركات التكنولوجيا الكبرى، وإجبارهم على إثبات أن أنظمة الذكاء الاصطناعي AI الخاصة بهم لا تسبب أي ضرر، بدلاً من مطالبة الجهات التنظيمية بتحديد أي منها خطر والتعامل مع الضرر بعد وقوع.

تقول سارة مايرز ويست Sarah Myers West، المديرة الإدارية في المعهد AI Now: «كان اللاعبون في الصناعة من أوائل الذين قالوا إننا بحاجة إلى التنظيم… لكنني أتمنى أن يتم طرح الأسئلة عليهم، مثل: كيف تتأكد من أن ما تفعله قانوني في المقام الأول؟».

الجيل القادم
يعتمد الكثير مما يحدث بعد ذلك في طفرة الذكاء الاصطناعي التوليدية على كيفية استخدام التقنيات المعنية وتنظيمها. فكما يقول أسيموغلو: «أعتقد أن الدرس الأكثر أهمية من التاريخ هو أننا، كمجتمع، لدينا العديد من الخيارات حول كيفية تطوير التقنيات وتطبيقها أكثر مما يخبرنا به أصحاب الرؤى التقنية».

قال سام التمان Sam Altman، الرئيس التنفيذي لشركة OpenAI، إن ChatGPT لا يمكن أن يحل محل محركات البحث التقليدية في الوقت الحالي. ولكن في مقابلة مع مجلة فوربس Forbes، اقترح أن الذكاء الاصطناعي AI يمكن أن يغير يوماً ما كيفية حصول الناس على المعلومات عبر الإنترنت بطريقة «مختلفة تماماً وأكثر سهولة».

لقد فكر ألتمان أيضاً في سيناريوهات مستقبلية أكثر تطرفاً تتضمن أنظمة ذكاء اصطناعي قوية تتفوق عموماً على البشر، واصفاً «أفضل حالة» للذكاء الاصطناعي AI لتكون قادرة على «تحسين جميع جوانب الواقع والسماح لنا جميعاً بأن نعيش أفضل»، في حين حذر أيضاً من أن «الحالة السيئة» يمكن أن تعني «إطفاء الأنوار لنا جميعاً». لكنه وصف التطور الحالي للذكاء الاصطناعي بأنه لا يزال بعيداً عن الذكاء الاصطناعي العام.

في مارس 2023، نشرت غيبرو وزملاؤها بياناً يحذرون فيه من أنه «من الخطر تشتيت انتباهنا عن مدينة فاضلة متخيلة مدعومة بالذكاء الاصطناعي أو نهاية العالم والتي تعد بمستقبل» مزدهر «أو كارثي محتمل».

وكتبوا: «السباق الحالي نحو «تجارب الذكاء الاصطناعي» الأكبر من أي وقت مضى ليس مساراً محدداً حيث يكون خيارنا الوحيد هو مدى سرعة الجري، بل مجموعة من القرارات مدفوعة بدافع الربح… يجب أن تتشكل إجراءات وخيارات الشركات من خلال اللوائح التي تحمي حقوق الناس ومصالحهم».

هذا، وتقول ساشا لوتشيوني Sasha Luccioni، عالمة أبحاث الذكاء الاصطناعي في شركة هغينغ فيس Hugging Face، إنه إذا كانت الفقاعة لتوقعات الأعمال حول الذكاء الاصطناعي التوليدي تتطور إلى مستويات غير مستدامة وانفجرت في نهاية المطاف، فقد يؤدي ذلك أيضاً إلى إعاقة تطوير الذكاء الاصطناعي AI في المستقبل عموما. ومع ذلك، فإن الطفرة في الذكاء الاصطناعي التوليدي لا تحتاج حتما إلى شتاء آخر للذكاء الاصطناعي AI. أحد الأسباب هو أنه، على عكس الدورات السابقة، تواصل العديد من المنظمات البحث عن طرق أخرى لأبحاث الذكاء الاصطناعي AI بدلاً من وضع كل بيضها في سلة الذكاء الاصطناعي التوليدي.

انفتاح الذكاء الاصطناعي AI
تدعو منظمات مثل الشركة Hugging Face إلى ثقافة الانفتاح في أبحاث وتطوير الذكاء الاصطناعي AI التي يمكن أن تساعد على منع كل من الضجيج والتأثيرات المجتمعية الفعلية من الخروج عن نطاق السيطرة. وتعمل لوتشيوني مع منظمي المجموعة NeurIPS – أحد أكبر التجمعات البحثية للذكاء الاصطناعي AI – لإنشاء ميثاق أخلاقيات عامة تتطلب أن يكشف الباحثين عن بيانات التدريب الخاصة بهم، والسماح بالوصول إلى نماذج الذكاء الاصطناعي AI الخاصة بهم، وإظهار عملهم بدلاً من إخفائه كتقنية ملكية.

يجب أن يشرح باحثو الذكاء الاصطناعي AI بوضوح ما يمكن للنمذجات أن تفعله وما لا يمكنها فعله، وأن يميزوا بين تطوير المنتجات والمزيد من البحث العلمي، وأن يعملوا عن كثب مع المجتمعات الأكثر تأثراً بالذكاء الاصطناعي AI للتعرف على الميزات والضمانات ذات الصلة بهم، كما يقول نيمة بوسكارينو Nima Boscarino، مهندس أخلاقيات في الشركة Hugging Face. وتسلط بوسكارينو الضوء أيضاً على الحاجة إلى تبني ممارسات مثل تقييم كيفية أداء الذكاء الاصطناعي AI مع أشخاص من هويات مختلفة.

إن العمل على الذكاء الاصطناعي التوليدي الذي يتم تنفيذه بهذه الطريقة يمكن أن يضمن شكلاً أكثر استقراراً واستدامة من التطور التكنولوجي المفيد في المستقبل.

تقول بوسكارينو: «هذه أوقات مثيرة في مجال أخلاقيات الذكاء الاصطناعي AI، وآمل بأن يتعلم قطاع تعلم الآلة Machine learning الأوسع نطاقاً كيفية اتباع النهج المعاكس لما تقوم به شركة OpenAI».

جدول زمني للذكاء الاصطناعي AI
عض أهم اللحظات في تاريخ الذكاء الاصطناعي AI حتى الآن (وبعض التوقعات)

1950 عالم الرياضيات آلان تورينغ Alan Turing يحدد اختباراً نظرياً يسمى لعبة التقليد Imitation game لتحديد ما إذا كان بإمكان الآلات التفكير. منذ ذلك الحين، أصبح اختبار تورينغ معياراً للذكاء الاصطناعي AI.

1956 تم عقد أحد أولى مؤتمرات الذكاء الآلي، في كلية دارتموث Dartmouth College في نيوهامبشاير، وسط شعور بأن التقدم في هذا المجال يمكن أن يحدث بسرعة كبيرة. هناك، تمت صياغة مصطلح الذكاء الاصطناعي AI.

1956 تمت كتابة برنامج يسمى لوجيك ثيوريست Logic Theorist، والذي تم وصفه بأنه أول برنامج للذكاء الاصطناعي AI. أثبتت 38 من أول 52 نظرية الواردة في الأصول الرياضياتية للفلسفة الطبيعية Principia Mathematica.

1958 عالم النفس فرانك روزنبلات Frank Rosenblatt بنى أول شبكة عصبية اصطناعية. أطلق عليه اسم بيرسبترون Perceptron، يمكنه التعرف على الأنماط المرئية البسيطة، ولكن سرعان ما صار من الواضح أن قدرته وفائدته كانت محدودة.

1966 تم الانتهاء من اللغة المبكرة AI ELIZA. أعطت وهم محادثة طبيعية مع الإنسان. في الحقيقة، سرعان ما صارت خوارزمية مطابقة الأنماط متكررة ولم تكن قادرة على فهم المعنى.

1968 نجم الفيلم 2001: سبيس أوديسي A Space Odyssey هو جهاز حاسوب حساس يعرف باسم HAL 9000. أصبح الذكاء الاصطناعي AI شريراً، وعمل ضد طاقم المركبة الفضائية الذي كان من المفترض أن يساعده.

1970 مارفن مينسكي Marvin Minsky، المؤسس المشارك لمختبر الذكاء الاصطناعي AI التابع للمعهد MIT، أخبر مجلة لايف Life أن «آلة ذات ذكاء عام للإنسان العادي» لا يبعد التوصل إليها سوى ثلاث إلى ثماني سنوات.

1973 بدأ «شتاء الذكاء الاصطناعي» الأول الذي شهد انخفاضاً في التمويل والاهتمام بالأبحاث عندما وجد تقرير صادر عن مجلس أبحاث العلوم البريطاني أن أبحاث الذكاء الاصطناعي AI قد فشلت في تحقيق النتائج.

1979 عربة ستانفورد Stanford Cart، روبوت متحرك بسيط، تعبر غرفة مملوءة بالكرسي بمفردها. استغرقت العملية 5 ساعات، لكنها كانت واحدة من الأمثلة الأولى للمركبة المستقلة.

1987 بدأ الشتاء الثاني للذكاء الاصطناعي AI، مع بزوغ فجر الإدراك أن النهج الشائع لمحاولة استخلاص الذكاء من المنطق والقواعد لا يؤدي إلى أنظمة ذكاء اصطناعي AI مفيدة – ومن غير المرجح أن يحقق ذلك.

1997 الحاسوب العملاق ديب بلو Deep Blue من آي بي إم IBM يلعب الشطرنج ويهزم المحترف غاري كاسباروف Garry Kasparov، وفاز بثلاث من ست مباريات وتعادل في واحدة. واعتمد على القوة الحاسوبية للعثور على أفضل الحركات.

2011 أبل Apple تطلق سيري Siri، مساعد مدعوم بالذكاء الاصطناعي AI يمكن تعليمه بلغة طبيعية لأداء المهام الأساسية. تدعمه شبكة عصبية.

2016 يتفوق نظام AlphaGo AI لشركة الأبحاث ديب مايند DeepMind على أفضل لاعب Go ليل سيدول Lee Sedol ويفوز عليه 4-1. أشار لي لاحقاً ببراعة الذكاء الاصطناعي كسبب لتقاعده كلاعب محترف في عام 2019.

2022 يتوقع الذكاء الاصطناعي ألفا فولد AlphaFold من ديب مايند بنية جميع البروتينات المعروفة تقريباً في غضون 18 شهراً فقط. في السابق، كان الأمر يستغرق العالِم عدة سنوات للكشف عن بنية بروتين واحد.

2022 يتيح برنامج OpenAI بوت محادثة معروف بـــــــ ChatGPT للجمهور، مما يسرع من التدافع لتسويق نمذجات الذكاء الاصطناعي AI واللغات الكبيرة تجارياً.

المستقبل…
منتصف عام 2023 يقر الاتحاد الأوروبي European Union قانون الذكاء الاصطناعي AI الخاص به. ينظم الذكاء الاصطناعي European Union حسب المخاطر لما يقرب من 450 مليون مواطن في الاتحاد الأوروبي.

منتصف عام 2020 صارت أنظمة الذكاء الاصطناعي التوليدية أدوات معتمدة على نطاق واسع في كل شيء بدءاً من كتابة التقارير وحتى توفير خدمة العملاء وتحديد مصادر المعلومات وكتابة كودات الحاسوب.

ثلاثينات القرن العشرين، تتعامل شركات التكنولوجيا الكبيرة مع بصمات الكربون واستخدام المياه المتزايدة لخدمات الذكاء الاصطناعي AI، وتعمل على تخفيضها للوفاء بتعهداتها لتكون شركات مستدامة وعديمة الانبعاثات.

ثلاثينات القرن العشرين، يفوق الحجم الهائل للذكاء الاصطناعي AI تطورات الأجهزة وتوافرها. هناك حاجة إلى أنواع جديدة من خوارزمية الذكاء الاصطناعي AI أو أنواع جديدة من أجهزة الحاسوب للقفزة الكبيرة التالية في أداء الذكاء الاصطناعي AI.

© 2023, New Scientist, Distributed by Tribune Content Agency LLC.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

زر الذهاب إلى الأعلى