تستطيع برامج الذكاء الاصطناعي اليوم التعرف على الوجوه وتدون جملاً منطوقة. ولدينا برامج يمكنها الكشف عن عمليات التلاعب المالي الدقيقة وترسم طريق القيادة على الخريطة لأي مقصد تقريباً، وتهزم أعظم العقول في الشطرنج، وتترجم بين مئات اللغات. وهناك وعود بأن السيارات ذاتية القيادة واكتشاف مرض السرطان آلياً وربوتات تنظيف المنزل ستصبح أموراً شائعة قريباً.
و«مارك زوكربيرج»، مؤسس «فيسبوك»، أعلن في الآونة الأخيرة أنه خلال السنوات العشر المقبلة ستعزز الشركة ذكاءها الاصطناعي ليصبح «أفضل من المستوى الإنساني في كل حواس الإنسان الأساسية، في الرؤية والتعلم واللغة والإدراك العام». وتنبأ «شين ليج»، كبير علماء جماعة «ديبمايند» في جوجل، أن «الذكاء الاصطناعي في المستوى البشري سيتم تجاوزه في منتصف العشرينيات».
وباعتباري ممن عملوا في الذكاء الاصطناعي لعقود، شاهدت فشل تنبؤات سابقة مشابهة لوصول وشيك للذكاء الاصطناعي إلى المستوى البشري. وأنا متأكدة أن أحدث التنبؤات هذه لن نبلغها قريباً أيضاً. وهذا لأن أنظمة الذكاء الاصطناعي في الوقت الحالي تفتقر بشدة إلى جوهر الذكاء الإنساني وهو فهم المواقف ومعناها. فهل يكسر الذكاء الاصطناعي جدار المعنى ومتى؟ مازال هذا أهم سؤال.
والافتقار إلى فهم يشبه الفهم الإنساني في الآلات تؤكدها بعض نقائص الذكاء الاصطناعي الحديث. صحيح أن برامج اليوم أكثر قوة بكثير من الأنظمة التي كانت لدينا قبل 20 أو 30 عاماً، لكن سلسلة من الدراسات أظهرت أن أنظمة التعليم العميق لا يمكن الاعتماد عليها في فهم المعاني. ومن الأمثلة على ذلك، ترجمات جوجل المضحكة أحياناً. وبرامج التعرف على الوجوه التي يجري الإشادة بها باعتبارها انتصاراً كبيراً لـ «التعلم العميق» ممكن أن تفشل أيضاً بشدة حين يجري تعديل مدخلاتها على أبسط نحو مثل الإضاءة أو غيرها من التعديلات التي لا تؤثر على قدرات الإنسان في التعرف.
وهذه ليست إلا أمثلة قليلة توضح أن أفضل برامج الذكاء الاصطناعي لا يمكن الاعتماد عليها حين تواجه مشكلات تتغير إلى أقل درجة لما تم تدريبها عليه. والأخطاء التي تقع فيها هذه الأنظمة قد تتفاوت من المستوى المضحك غير الضار إلى المستوى الكارثي. ولك أن تتخيل، مثلاً، نظاماً لأمن مطار ما لن يسمح لمسافر بالصعود إلى متن طائرة لأن وجهه اختلط عليه مع وجه مجرم، أو أن سيارة ذاتية القيادة عجزت عن إدراك عبور شخص للطريق بسبب ظروف إضاءة غير معتادة. وقد تتعرض أنظمة الذكاء الاصطناعي لعمليات قرصنة تحدث فيها تعديلات معينة مما قد يجعل النظام يقع في أخطاء كارثية.
وأي شخص يعمل في أنظمة الذكاء الاصطناعي يعلم أنه خلف واجهة القدرات الشبيهة بالإنسان برامج لا تفهم المدخلات التي تعالجها أو المخرجات التي تنتجها. والافتقار إلى مثل هذا الفهم يجعل هذه البرامج عرضة للوقوع في أخطاء غير متوقعة وحدوث هجمات لا يمكن اكتشافها. فما المطلوب لتجاوز هذا الحاجز ولإعطاء الآلات القدرة على فهم المواقف بشكل أعمق بدلاً من الاعتماد على خصائص سطحية؟ وللإجابة على هذا السؤال يتعين علينا التأمل في دراسة الإدراك الإنساني.
إن فهم الإنسان للمواقف يعتمد على «معرفة بدهيات» معرفية واسعة النطاق عن كيفية سير العالم والأهداف والحوافز وربما سلوك الكائنات الأخرى وخاصة البشر الآخرين. وفهمنا للواقع يعتمد أيضاً على قدراتنا المحورية على تعميم ما نعرفه لنشكل مفاهيم مجردة وندرك التشابهات، أي التكيف المرن لمفاهيمنا مع المواقف الجديدة. وأجرى باحثون لعقود تجارب على وسائل تجعل أنظمة الذكاء الاصطناعي تتشرب البدهيات المعرفية وقدرات التعميم مثل الإنسان لكن لم يتحقق إلا القليل للغاية من التقدم في هذا المسعى شديد الصعوبة.
ويشعر بعض الناس بالقلق من تفوق الذكاء الاصطناعي، لكن الخطر يكمن في أن نثق به ونعطيه استقلالية لا يستحقها ونحن لا ندرك حدوده. وتطوير ذكاء اصطناعي جدير بالثقة يتطلب فحصاً أعمق لقدراتنا البشرية المميزة وفهماً جديداً لآلياتنا المعرفية التي نستخدمها في فهم العالم. وفتح حاجز المعنى أمام الذكاء الاصطناعي يتطلب على الأرجح التراجع عن ميدان الشبكات التي تكبر دوماً وجمع البيانات والعودة إلى الجذور، أي العلوم متعددة الحقول المعرفية لدراسة أكثر المشكلات العلمية صعوبة والتي تتمثل في فهم طبيعة الذكاء.
ينشر بترتيب خاص مع خدمة «نيويورك تايمز»