صحيفة الاتحاد

وجهات نظر

الذكاء الاصطناعي وحاجز المعنى


تستطيع برامج الذكاء الاصطناعي اليومَ التعرفَ على الوجوه وتدوين جمل منطوقة. ولدينا برامج يُمكنها الكشفُ عن عمليات التلاعب المالي الدقيقة، ورسم طريق القيادة على الخريطة لأي وجهة تقريباً، وهزيمةِ أعظم العقول في الشطرنج، والترجمة بين مئات اللغات. وهناك وعود بأن السيارات ذاتية القيادة، واكتشاف مرض السرطان سيكون آلياً، وربوتات تنظيف المنزل.. ستصبح أموراً شائعةً قريباً.
وقد أعلن مارك زوكربيرج، مؤسس فيسبوك، مؤخراً، أنه خلال السنوات العشر المقبلة ستعزز شركته ذكاءها الاصطناعي ليصبح «أفضل من المستوى الإنساني في كل حواس الإنسان الأساسية، في الرؤية والتعلم واللغة والإدراك العام». وتنبأ شين ليج، كبير علماء جماعة «ديبمايند» في جوجل، بأن «الذكاءَ الاصطناعيَ في المستوى البشري سيتم تجاوزه في منتصف العشرينيات».
وباعتباري ممن عملوا في الذكاء الاصطناعي لعقود، شاهدت فشل تنبؤات سابقة مشابهة لوصول وشيك للذكاء الاصطناعي إلى المستوى البشري. وأنا متأكدة أن أحدث التنبؤات هذه لن نبلغها قريباً كذلك. وهذا لأن أنظمة الذكاء الاصطناعي في الوقت الحالي تفتقر إلى جوهر الذكاء الإنساني وهو فهم المواقف ومعناها. فهل يكسر الذكاء الاصطناعي جدار المعنى؟ ومتى؟ مازال هذا أهم سؤال.
افتقار الآلات إلى فهم يشبه الفهم الإنساني حقيقة تؤكدها بعض نقائص الذكاء الاصطناعي الحديث. صحيح أن برامج اليوم أكثر قوة بكثير من الأنظمة التي كانت لدينا قبل 20 أو 30 عاماً، لكن سلسلة من الدراسات أظهرت أن أنظمة التعليم العميق لا يمكن الاعتماد عليها في فهم المعاني.
ومن ذلك، ترجمات جوجل المضحكة أحياناً، وبرامج التعرف على الوجوه التي تجري الإشادة بها كانتصار كبير لـ«التعلم العميق». فهذه الأخيرة يمكن أن تفشل بشدة حين يجري تعديل مدخلاتها على أبسط نحو؛ مثل الإضاءة أو غيرها من التعديلات التي لا تؤثر على قدرات الإنسان في التعرف.
وهذه ليست إلا أمثلة قليلة توضح أن أفضلَ برامج الذكاء الاصطناعي لا يمكن الاعتماد عليها حين تواجه مشكلات تتغير بأقل درجة عما تم تدريبها عليه. والأخطاء التي تقع فيها هذه الأنظمة قد تتفاوت من المستوى المضحك غير الضار إلى المستوى الكارثي. ولك أن تتخيل، مثلا، نظاماً لأمن مطار ما لن يسمح لمسافر بالصعود إلى متن طائرة لأن وجهه اختلط عليه مع وجه مجرم، أو أن سيارة ذاتية القيادة عجزت عن إدراك عبور شخص للطريق بسبب ظروف إضاءة غير معتادة. وقد تتعرض أنظمة الذكاء الاصطناعي لعمليات قرصنة تحدث فيها تعديلات معينة مما قد يجعل النظامَ يقع في أخطاء كارثية.
وأي شخص يعمل في أنظمة الذكاء الاصطناعي يعلم أنه خلف واجهة القدرات الشبيهة بالإنسان، برامج لا تفهم المُدخلات التي تُعالجها أو المُخرجات التي تُنتجها. والافتقار إلى مثل هذا الفهم يجعل هذه البرامج عرضةً لأخطاء غير متوقعة، ولهجمات لا يمكن اكتشافها. فما المطلوب لتجاوز هذا الحاجز؟ ولإعطاء الآلات القدرة على فهم المواقف بشكل أعمق بدلا من الاعتماد على خصائص سطحية؟ للإجابة على هذا السؤال يتعين علينا التأمل في دراسة الإدراك الإنساني.
إن فهم الإنسان للمواقف يعتمد على «معرفة بدهيات» معرفية واسعة النطاق عن كيفية سير العالم والأهداف والحوافز، وربما سلوك الكائنات الأخرى، وخاصة البشر الآخرين. وفهمنا للواقع يعتمد أيضاً على قدراتنا المحورية على تعميم ما نعرفه لنشكل مفاهيم مجردة، وندرك التشابهات، أي التكيف المرن لمفاهيمنا مع المواقف الجديدة. وأجرى باحثون لعقود تجارب على وسائل تجعل أنظمة الذكاء الاصطناعي تتشرب البدهيات المعرفية وقدرات التعميم، مثل الإنسان، لكن لم يتحقق إلا القليل للغاية من التقدم في هذا المسعى شديد الصعوبة.
ويشعر بعض الناس بالقلق من تفوق الذكاء الاصطناعي، لكن الخطر يكمن في أن نثق به ونعطيه استقلاليةً لا يستحقها ونحن لا ندرك حدوده. وتطوير ذكاء اصطناعي جدير بالثقة يتطلب فحصاً أعمق لقدراتنا البشرية المميزة وفهماً جديداً لآلياتنا المعرفية التي نستخدمها في فهم العالم. وفتح حاجز المعنى أمام الذكاء الاصطناعي يتطلب العودة إلى الجذور، أي العلوم متعددة الحقول المعرفية، لدراسة أكثر المشكلات العلمية صعوبة، والتي تتمثل في فهم طبيعة الذكاء.

ميلاني ميتشل*
*أستاذة علوم الكمبيوتر في جامعة بورت لاند ستيت الأميركية
ينشر بترتيب خاص مع خدمة «نيويورك تايمز»


 

الكاتب

شارك برأيك

هل تعتقد أن المعركة المرتقبة في إدلب ستكون بالفعل "خاتمة" الحرب السورية؟

هل تعتقد أن المعركة المرتقبة في إدلب ستكون بالفعل "خاتمة" الحرب السورية؟