أحد صفحات التقدم العلمي للنشر
تكنولوجياذكاء اصطناعي

يمكن لـ Meta AI معرفة الكلمات التي تسمعها بقراءة موجات دماغك

أنشأت الشركة التي تقف وراء فيسبوك ذكاءً اصطناعياً يمكن استخدامه يوماً ما لمساعدة الأشخاص غير اللفظيين على التواصل بشكل أفضل

يمكن للذكاء الاصطناعي الذي طورته شركة ميتا Meta -الشركة المالكة لفيسبوك Facebook- مسح الموجات الدماغية للشخص “لسماع” ما يقوله شخص آخر له. حالياً، البرمجية Software محدودة الاستخدام العملي، ولكن يمكن أن يكون نقطة انطلاق لقراءة أفكار الأشخاص غير اللفظيين Nonverbal person للسماح لهم بالتواصل بشكل أفضل – على الرغم من أن Meta ليست لديها خطط فورية لتحويلها إلى منتج تجاري.
استخدم جان-ريمي Jean-Rémi King من الشركة Meta وزملاؤه مجموعات البيانات الحالية المُسجَّلة من الموجات الدماغية والمأخوذة من 169 شخصاً أثناء استماعهم إلى تسجيلات أشخاص يتحدثون. وقسّم الفريقُ البيانات إلى أجزاء من 3 ثوانٍ، وغذّوا كل من الموجات الدماغية والملفات الصوتية إلى الذكاء الاصطناعي AI، الذي تعلم تحديد الأنماط في كليهما.
خزّن الباحثون 10 % من البيانات لاستخدامها في الاختبارات، مما وفّر بيانات للذكاء الاصطناعي لم تكن متاحة من قبل. وجدوا أنه كان قادراً على استنتاج الكلمات الفردية، من بين 793 مفردة كان الشخص يستمع إليها حينها – على الأقل إلى حد ما. لكل تسجيل، توقع الذكاء الاصطناعي AI قائمة من 10 كلمات، وفي 73 % من التجارب تضمنت هذه القائمة الكلمة الصحيحة.
يقول توماس نوبفيل Thomas Knopfel من جامعة إمبريال كوليدج بلندن Imperial College London هناك حاجة إلى مزيد من الصقل قبل أن يكون مثل هذا النظام دقيقاً بما يكفي ليكون مفيداً. كما أنه يتساءل عما إذا كان نوع مسح الدماغ الذي استخدمه الفريق – تخطيط الدماغ المغناطيسي Magnetoencephalography وتخطيط كهربية الدماغ Electroencephalography، وكلاهما تدخل غير باضع Non-invasive – يمكن أن يوفر تفاصيل كافية عن حالة الدماغ لزيادة الدقة.
إذ يقول: “يتعلق الأمر بتدفق المعلومات. فهو يشبه محاولة بثّ Stream فيلم عالي الدقة HD باستخدام أجهزة مودم الهاتف التناظرية القديمة Analogue telephone modems. حتى في الظروف المثالية، مع وجود شخص ما يجلس في غرفة معتمة مع سماعات الرأس، يستمع فقط للصوت، فإن هناك أشياء أخرى تحدث في الدماغ. في العالم الحقيقي يصبح الأمر مستحيلاً تماماً”.
أما كينج؛ فيقول إن البحث قد خطا خطوة أبعد من العمل السابق المماثل في تدريب الذكاء الاصطناعي AI لتحديد الكلمة التي كان الشخص يفكر فيها- أو الأغنية التي كان يستمع إليها- من مجموعة صغيرة من الخيارات. ويقول إن تحديد الكلمات التي يسمعها الشخص له فائدة محدودة، لذا فإن الخطوة التالية لفريقه هي محاولة تفسير أفكار الشخص والسماح له بالتواصل.
ويستطرد قائلا: “أعتقد أن الخطوة التالية ستكون إنتاج لغة. نحن لا نفك تشفير الأفكار في هذه المرحلة. أعني، ليست لدينا أي فكرة عما إذا كان هذا ممكناً أم لا. ولكن بالنظر إلى مدى صعوبة تسجيل شيء واضح مثل الصوت الذي تسمعه، وإنتاج لغة، أعتقد أنه سيكون أكثر صعوبة”.
ويقول كينج إن هذا العمل تم تنفيذه بواسطة الشركة Meta AI، الذراع العلمية للشركة، والتي تنشر علناً أبحاثاً حول تعلم الآلة العام General machine-learning ليستخدمها باحثون آخرون، وليست خاضعة لأي التزام بإنشاء تطبيقات عملية وفقا لهذه الأبحاث. ويقول: “نحن لا نحاول بناء أي منتج في هذه المرحلة. الآن، ما إذا كانت هناك تطبيقات لهذا البحث، أعتقد أن ذلك ممكن، لكنها أيضاً لا تزال بعيدة قليلاً”. المصادر العلمية: arxiv.org/abs/2208.12266

 

بقلم ماثيو سباركس

ترجمة Google translate

تنقيح فريق مجلة العلوم

 

© 2022, New Scientist, Distributed by Tribune Content Agency LLC

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى