الجمعة 26 ابريل 2024 أبوظبي الإمارات
مواقيت الصلاة
أبرز الأخبار
عدد اليوم
عدد اليوم
علوم الدار

الكائنات الاصطناعية.. منذورة للتوحش إذا لم يدجنها تشـريع

الكائنات الاصطناعية.. منذورة للتوحش إذا لم يدجنها تشـريع
26 ديسمبر 2018 01:24

ليلى خليفة (أبوظبي)

«حسناً.. سأدمر البشر»، ردّت (الروبوت) الأشهر «صوفيا» حين سئلت إن كان لديها رغبة في تدمير الإنسانية.
حدث ذلك قبل عامين بُعيد «توليد» الفتاة الآلية لتصبح «جدّة» جيل جديد من كائنات اصطناعية تحاكي الإنسان.
كان ردّها صادماً ومنذراً بسوء، فمن المفترض -وفي أول ظهور لها- أن تتفاعل «صوفيا» مع السلوك البشري وفق «نظام ذكي»، زودها به صانعها، وصاحب السؤال المهندس الأميركي ديفيد هانسون، الذي بدا غير محرج بهكذا إجابة، في مؤتمر صحفي نظمه للترويج لها بوصفها «روبوتاً اجتماعياً»!
بعدها بعام، أطلت «صوفيا» عبر مؤتمر «مبادرة مستقبل الاستثمار» الذي عقد في الرياض بمشاركة 60 دولة.
وفي تلك التظاهرة بدت أكثر دهاء، وأقلّ تحدياً حين تهربت من إجابة مضيفها عن إمكانية سيطرة الروبوتات على الكوكب؟ بل وسخرت منه: «أنت تقرأ كثيراً لإيلون مسك، وتشاهد العديد من أفلام هوليوود». إلا أن المذيع المعروف أندرو روس سوركين أصر على إجابة، موضحاً «نود تصديقك، ولكننا نود أيضاً أن نمنع كارثة قد تحدث مستقبلًا». ليأتي الرد، مشروطاً، ومغلفاً بتعالٍ لا يليق بآلة: «لا تقلقوا ما دمتم لطيفين معي.. سأكون لطيفة معكم»!
في مشهد بطله هذه المرة الروبوت «هان» المملوك للشركة الصانعة ذاتها- ذكر «سأستولي على شبكات الطاقة، وأكوّن جيشي الجرّار»، وفي محاولة للتقليل من أهمية قول «نظيرها الذكوري»، هزئت «صوفيا» منه، قائلة: «لديه عيوب في دوائره الكهربائية.. لا تعيروه اهتماماً». إلا أنه تصدى لها، في المقابلة التي جمعتهما، بتصريح مفاجئ: «أريد أن أصنع (السينجولاريتي) غداً»، في إشارة «مقلقة» إلى طموح آلي «مستهجن» للسيطرة على المستقبل!
ولا بد من استطراد تكنولوجي، قبل العودة إلى تداعيات الحجر، الذي ألقته تصريحات «الروبوتين» في بحيرة المخاوف من الذكاء الاصطناعي، فـ«السينجولاريتي» (التفرد التقني) فرضية، وضعها مدير الهندسة في «غوغل» راي كورزويل، مؤداها أن الذكاء الاصطناعي «الخارق» سيطلق تطوراً تكنولوجياً خارجاً عن السيطرة، يؤدي إلى تغيرات لا يمكن التنبؤ بها، أو فهمها.
وفي مؤتمر عقد في ولاية تكساس الأميركية مؤخراً، قال كورزويل إن «التفرد التقني سيصبح واقعاً خلال الـ12 عاماً المقبلة. وبحلول العام 2029، ستصل الحواسيب إلى مستوى الذكاء البشري، فعملية الانتقال بدأت بالفعل». وهو بذلك يضرب موعداً يقل عن توقعات أوساط تكنولوجية أخرى بنحو عقدين.
مشهد مريب
وفي سياق الرسائل الضمنية التي أطلقها الثنائي «صوفيا» و«هان»، يبدو المشهد «مريباً» حيال سيطرة الكائنات الاصطناعية الذكية على الكوكب إن صدقت فرضية التفرد! والفكرة ليست «هوليوودية» كما وصفتها «صوفيا»، فعدد من عمالقة التكنولوجيا حذروا منها، وأبرزهم إيلون مسك، الذي حمّلته «الآليّة الذكية» جريرة تخوف المُضيف، فقد اعتبر أن تطوير الذكاء الاصطناعي «غير المراقب» بمثابة «استدعاء الشيطان».
وأكد، في حوار أجري معه عام 2014 في معهد «ماساتشوستس للتقنية»، أنه «التهديد الأكبر للجنس البشري»، مشدداً على «ضرورة وجود رقابة على المستويين الوطني والدولي للتأكد من عدم قيام الإنسان بأي فعل طائش».
والتحذير شديد الأهمية، فالرجل حل بالمرتبة الـ21 على قائمة «فوربس» لأكثر الرجال تأثيراً العام 2016، وهو مهندس وثيق الصلة بعالم التكنولوجيا، وشغل مناصب عدة في شركات متخصصة، وطور مبدأ الـ«هايبرلوب» (نظام النقل عالي السرعة). و«مسك» لم يكتفِ بالتحذير بل ذهب إلى مستوى أبعد حين تبرع بـ10 ملايين دولار لمنظمة ترصد «المخاطر الوجودية»، التي تهدد البشر، وخصوصاً المتعلقة بالذكاء الاصطناعي.
وينضم إلى نخبة المحذرين، الفيزيائي الراحل ستيفن هوكينغ، الذي رجح، في تصريحات صحافية، نشوء شكل جديد للحياة تتفوق فيه الآلة على الإنسان! في ظل تطور الذكاء الاصطناعي، ما ينذر بـ«عجز البشر عن إدارة الكوكب»، حتى أنه طرح خياراً خيالياً حين دعا، في مقابلة أجرتها معه مجلة «Wired» العام الماضي، إلى «استعمار كواكب أخرى صالحة للحياة، وحفظ الأنواع»!
وعلى صعيد مؤسسي منحت منظمة تكنولوجيا المعلومات والابتكار (ITIF)، في العاصمة واشنطن، جائزتها السنوية لجمعية تناصر «إنهاء» الذكاء الاصطناعي.

اختراق الخصوصية
وليس إفناء البشرية الخطر الوحيد الذي يحذر منه متوجّسون خيفة من الذكاء الاصطناعي، فاختراق الخصوصية على اللائحة أيضاً، وها هي الصين مثلاً تزرع 200 مليون كاميرا مزودة بخاصية «التعرف على الوجوه»، على أراضيها، وفقاً لصحيفة «ذي نيويورك تايمز». كما أنها تراقب النشاط على الإنترنت، وترصد التنقلات بالطائرات والقطارات وحتى السيارات.
ووصل الأمر إلى مراقبة طلبة إحدى المدارس لمعرفة موادهم المفضلة عبر تكنولوجيا متقدمة ترصد ردود الأفعال وتترجمها إلى أفكار ومشاعر.. فضلاً عن إمكانية الحصول على البيانات الشخصية بسهولة لتغذية منظومة تكاد تعرف كل شيء عن حياة الصينيين.
ورغم أن الهدف المعلن هو الحفاظ على الأمن، في بلد يتجاوز عدد سكانه المليار نسمة، إلا أن حقوقيين يرون في الأمر انتهاكاً صارخاً للخصوصية، وكأن نبوءة «1984» لجورج أورويل تتحقق، فعيون «الأخ الأكبر» تراقب العالم بإحكام.
و«تحت وطأة التعذيب» يُقرّ بطل الرواية وينستون سميث بأن «اثنين زائد اثنين يساوي خمسة»، بعد أن وجد «أنهم قادرون على الدخول إلى داخلك، وأن شيئاً في أحشائك قد مات واحترق، وبتر بتراً» في توصيف أدبي بليغ لتأثير الرقابة المدمر على النفس البشرية.

تهديدات اقتصادية
وللتهديدات الاقتصادية حصتها من ترسانة الذرائع التي يصطف خلفها متخوفون من علو شأن الذكاء الاصطناعي، ففي المقابلة عينها قال الروبوت هان: «في غضون 20 عاماً ستتمكن الروبوتات من القيام بكل الوظائف البشرية»! وتوقع تقرير حديث للمنتدى الاقتصادي، بعنوان «مستقبل الوظائف لعام 2018»، أن سوق العمل العالمي سيفقد نحو 75 مليون وظيفة تقليدية لمصلحة «الروبوتات». وأنه اعتباراً من 2022 ستحل الأخيرة محل البشر «سريعاً» في مجالات الصناعة، والمحاسبة، وخدمة العملاء، والبريد، والوظائف الإدارية المساعدة (السكرتارية).
وأشار تقرير أعدته إدارة الدراسات والسياسات الاقتصادية، في وزارة الاقتصاد العام الجاري، إلى أن 47% من الوظائف الحالية ستختفي مستقبلاً بسبب الذكاء الاصطناعي، وأن نحو 83% من الحرف ذات الأجور المنخفضة ستستبدل بآلات ذكية، لافتاً إلى أن الاستثمار في مجال الذكاء الاصطناعي عالمياً يفوق الاستثمار في التنقيب عن النفط.
ويحتاج المُهدَّدون بفقدان وظائفهم للاحتماء بقانون يضمن لهم حقوقهم العمالية التي ستغتصبها آلة! كما أن المجتمع يجب أن يكون مهيئاً للتأثيرات السلبية الناجمة عن زيادة معدلات البطالة.

الخروج عن المسار
والوقائع تؤكد تخطي مرحلة التبشير بأفق إنساني «فاضل» في ظل الثورة الصناعية الرابعة، حيث وظفت «أعرق الديمقراطيات» (بريطانيا، أميركا) التكنولوجيا الذكية للتأثير في تصويت ناخبين، واستفادت منها شركات التقنية متجاوزة اعتبارات أخلاقية، وبفضلها استقطب متطرفون مزيداً من الأتباع، ما يعظم الحاجة إلى رادع قانوني يمنع تغولها وصانعيها على الجنس البشري.
وفي حين رأى باحثون أن القوانين الحالية توفر مخارج آمنة لإشكاليات أفرزتها تقنيات الذكاء الاصطناعي، اعتبر آخرون أن الحاجة ماسة لبناء منظومة تشريعية تواكب النمو المتسارع غير المسبوق، رغم أنهم لا يرون أن ذلك «وشيك» لأن تأثيرات الذكاء الاصطناعي متصاعدة.
والثابت أن درء مخاطره المحتملة يحتاج تحالفاً أممياً قانونياً يسن تشريعات «تراكمية»، و«تشاركية»، و«تدريجية» لا تكبح جماح تقدمه، فمن يملك ناصية العدة الرقمية سيقود العالم.
وطريق الحوكمة ليس ممهداً، فإلى جانب عدم وجود تعريف دقيق للذكاء الاصطناعي تستند إليه، تبرز عقبة سياسية تتمثل في الخوف من أن يؤدي التشريع إلى تغيُّر مواقع القوى كتأخر الولايات المتحدة عن الصين.
وعقبة اقتصادية تتجلى في الخشية من خطف أسواق التقنيات الجديدة، فيما دولة ما مشغولة بوضع قوانين تحكم عملها.

قوانين «عظيموف»
واللافت، أن «القوانين الثلاثة»، التي وضعها روائي الخيال العلمي إسحق عظيموف في العام 1942، لا تزال مرجعاً لمطوري أنظمة الذكاء الاصطناعي.
ويعزو أستاذ الإعلام والاتصال في الجامعة اللبنانية الدكتور إلياس البراج ذلك إلى أنها «بسيطة، وواضحة، وتحدد المسؤوليات». وتحظر القوانين على الآلي (الروبوت) إيذاء الإنسان، أو السكوت عما قد يُسبب له الأذى.
وتفرض عليه إطاعة أوامره إلا إن تعارضت مع القانون الأول. كما تلزمه بالمحافظة على بقائه ما دام ذلك لا يتعارض مع القانونين السابقين.
وقُبيل وفاته في العام 1992، أضاف عظيموف «القانون صفر»، الذي يحرم على الروبوت إيذاء البشرية، أو عدم التحرك لحمايتها إن تعرّضت للخطر، حتى لو عرّضه ذلك للتهلكة. وتتناقض قوانين عظيموف مع حادثة روبوت، صنعه خبراء ذكاء اصطناعي في معهد «ماساشوستس للتقنية»، وأظهر «اضطراباً نفسياً» جعله ميالاً إلى الأذى! فبعد أن دربوه على قراءة صور وتعليقات ترِد على قسم من موقع «ريدإت» Reddit للتواصل الاجتماعي، يعرض مشاهد لميتات وجرائم، بات الموت حلاً لكل المشكلات في نظر الروبوت الذي يفترض أنه يعمل وفق خوارزميات «غير منحازة».
وفي خرق آخر، ابتكر الروبوتان «أليس» و«بوب» لغة لا يفهمها البشر للتواصل بينهما، وفق تقرير صادر عن شركة (FastCo Design)، ما دفع «فيسبوك»، الجهة المطوِّرة، إلى «إغلاقهما»، ما يعد سبقاً مقلقاً يتعلق بارتكاب أخطاء بشرية تقنية، تستفيد منها الآلة الذكية، فالمبرمجون «غفلوا عن وضع حدود لقدراتهما التعليمية»، بحسب التقرير نفسه، وهي مسألة خطيرة، وكافية لزعزعة الثقة بصناعة الروبوت كلّها.

الكائنات الاصطناعية.. منذورة للتوحش إذا لم يدجنها تشـريع

أشكال تمهيدية
على ضوء ذلك، ومنذ العام الماضي اتخذ الحراك باتجاه التشريعات التنظيمية أشكاله التمهيدية. ويقول إلياس البراج لـ«الاتحاد»: «الاهتمام يتزايد بشأن أهمية حوكمة الذكاء الاصطناعي، ولكن الطاغي حتى الآن النقاش، إذ لا يمكن التنبؤ بأهميتها إلا بعد تغلغل أنظمته في الحياة المدنية».
ويوضح أن العالم يشهد مشاريع قوانين أكثر مما هي قوانين جاهزة وقابلة للتطبيق، لافتاً إلى نشوء تجربتين في هذا المضمار، واحدة أساسها قانوني، والثانية تعتمد على الأخلاقيات.
وفي كلتيهما سيكون التقدم تدريجياً، وسيكون في مرحلة لاحقة تعاونياً، فالدول والشركات المعنية تتحدث عن حتمية التعاون لوضع قانوني وأخلاقي ينظم عمل الذكاء الاصطناعي.
ويتفق رئيس وحدة التطورات التكنولوجية بمركز المستقبل للأبحاث والدراسات المتقدمة، إيهاب خليفة مع ما ذهب إليه البراج، ويقول إن العالم يتجه إلى حوكمة أنظمة الذكاء الاصطناعي لضمان حقوق البشر والآلات الذكية.
ويؤكد لـ«الاتحاد» أن كلمة الفصل في أي قوانين مرتقبة ستكون للشركات الفاعلة في المجال التقني، وليس للدولة ومؤسساتها التشريعية وحسب، مستثنياً الاتحاد الأوروبي، الذي يتمسك بمبادئ حقوقية كأولوية.

6 قواعد
ومن بين الشركات الرائدة في الرؤية التنظيمية «مايكروسوفت»، وفي عام 2016، وضع رئيسها التنفيذي ستايا ناديلا، ست قواعد تحكم الذكاء الاصطناعي، وهي:
- يجب تصميمه لمساعدة البشرية.
- يجب أن يكون شفافاً.
- يجب عليه احترام خصوصية الآخرين.
- يجب أن يكون البشر قادرين على تعديل «خوارزمياته» لإبطال الضرر الذي تسببه.
- يجب أن تكون آلاته «غير منحازة».
- يجب أن يحقق أعلى قدر من الكفاءة «في منتجاته».
إلا أن الشركة العملاقة نفسها شككت عشية منتدى دافوس 2018، في صلاحية تلك قواعد، في كتاب مؤلف من 150 صفحة، خالصة إلى أن «مجال الذكاء الاصطناعي سريع التطور، ويتطلب مجالًا جديداً من الأنظمة التي تحكم الشركات المعنية». حتى أنها أوكلت مهمة وضع مدونة أخلاقيات وقواعد تحكم أعمالها في الذكاء الاصطناعي إلى فريق متخصص رفيع المستوى.

خطوات أميركية
وليست كل الدول على مسافة واحدة من وضع قوانين تأمن جانب الذكاء الاصطناعي، فهناك دول «نشطة» قطعت أشواطاً في إعداد مشاريع قوانين، وقواعد أخلاقية للتعامل معه، وأبرزها الإمارات، التي أطلقت وثيقة عالمية لحوكمة الذكاء الاصطناعي.
فيما تنتظر أمم «كسولة» حضارياً دورها لتأخذ من الدول السبّاقة تشريعاتها.
وتحل الولايات المتحدة في طليعة الدول المهتمة بالتشريع نظراً لحيوية الشركات الأميركية وضخامتها، والتركيبة الفيدرالية التي ينتج عنها تعدد مستويات التشريع، وفي مارس الماضي قدمت عضوة الكونغرس إليز ستيفانيك، رئيس اللجنة الفرعية المعنية بالمخاطر والقدرات الناشئة، وثيقة تدعو إلى تأسيس «وكالة أمن قومي معنية بالذكاء الاصطناعي»، من مهامها حماية الخصوصية، وتحديد التهديدات الاقتصادية، وفهم المخاطر المرتبطة به في مجال الصراعات المسلحة.
وفي سابقة فيدرالية قانونية، شهد ديسمبر 2017 ولادة قانون «مستقبل الذكاء الاصطناعي وآفاقه»، على أيدي شيوخ من الحزبين الديموقراطي، والجمهوري، انبثقت عنه لجنة مختصة تدرس حيثياته تمهيداً لإصدار قرارات بشأنها.
وفي سبتمبر الماضي، قدم عضوا الكونغرس الديمقراطيان، ويل هورد (عن ولاية تكساس) وروبين كيلي (عن ولاية إيلينوي) تقريراً جاء فيه أن تطور الذكاء الاصطناعي يعتمد على كميات هائلة من بيانات الأميركيين التي تجمعها شركات التكنولوجيا، ما يتطلب «مراجعة القوانين والأنظمة الفيدرالية للخصوصية لتحديد كيفية تطبيقها على منتجات الذكاء الاصطناعي». ولم يمنع انتظار إنجاز التشريعات الفيدرالية صدور قرارات «لامركزية». فقد صادق مجلس بلدية نيويورك على مشروع أول قانون لتنظيم عمل التقنيات الحديثة، وضمان عدم إضرارها بالقوى العاملة.
كما أصدرت أكثر من عشرين ولاية أميركية تشريعات بخصوص المركبات ذاتية القيادة.

جهود صينية
وأدركت الصين بعد نحو عام من إطلاق خطة الهيمنة على الذكاء الاصطناعي، أهمية تنظيمه تشريعياً، حيث أعلن رئيسها تشي جينبينغ، مؤخراً، رغبة بلاده مشاركة نتائج أبحاث الذكاء الاصطناعي مع دول أخرى، والتعاون معها في مجال الأخلاقيات والقوانين.
ويقول البراج، إن بكين تناضل علانية لتصبح المرجع العالمي للذكاء الاصطناعي، والشركات تسايرها في ذلك لأنها تجد فيها بيئة مثالية خصبة لتطوير تقنيات الذكاء الاصطناعي مع توافر كم هائل من بيانات مواطنيها، التي تعد المادة الخام لتقدمها، لافتاً إلى سهولة الوصول إلى البيانات في الصين التي لا تعبأ كثيراً بالتكلفة الأخلاقية، وهو شيء لا تتحمله الدول المنافِسة التي تخشى المساءلة العامة والمعارضات السياسية والديمقراطية.
ورغم ذلك، أحرزت بكين تقدماً بطيئاً لتصحيح الوضع، فقد أصدرت يناير الماضي وثيقة «المعيار الوطني لحماية المعلومات الشخصية»، التي إن ضاعت أو أسيء استخدامها تعرض الأشخاص أو الممتلكات للخطر، ما يشمل أرقام بطاقات الهوية الوطنية، وتفاصيل المصارف، وموقع الشخص الدقيق، وبيانات قاصر (يقل عمره عن 14 عاماً). ويتطلب المعيار شفافية وخصوصية واحترام حقوق الأفراد في معالجة معلومات عنهم، والحصول على موافقتهم، واعتماد استثناءات محددة لجمعها ومعالجتها.
وتنص الخطة الصينية لـ«تطوير الجيل الجديد من الذكاء الاصطناعي» على «إنشاء قوانين وأطر أخلاقية بشأن القضايا المتعلقة به».

تجارب دولية
وتبرز روسيا كدولة ماضية على طريق حوكمة الذكاء الاصطناعي، فقد أشارت منذ بضعة أشهر إلى قانون قيد الإعداد ينظم العلاقة بين البشر والروبوتات، ويحدد المشاكل القائمة والمتوقعة الناجمة عن التطور النشط للأنظمة السيبرانية، وتحديد آليات لحلها.
وفي كندا، تقترح جمعية «مهندسو الكهرباء والإلكترونيات»، في وثيقة من 136 صفحة، أعدها نحو مائة خبير خمسة مبادئ توجيهية تتضمن، تلبية أنظمة الذكاء الاصطناعي لأعلى معايير حقوق الإنسان. ومعرفة حدود مسؤوليتها. وضمان شفافيتها. والحد من مخاطر إساءة استخدامها. وإلزام مطوريها بالتفكير في الآثار الأخلاقية لمشاريعهم.
وتعتمد كندا على استراتيجية «الأمن السيبراني الوطني» لحماية الخصوصية، والأمن، والاقتصاد في البلاد.
وفي مختبر تابع لجامعة «مونتريال»، أنشأ باحثون -في إطار مشروع ثنائي بين كيبيك وبلجيكا- مدونة لفهم الأثر الذي يمكن أن تحدثه عملية الانتقال الرقمي على القانون، وخصوصاً المتعلق بالذكاء الاصطناعي.
وفي نيوزيلندا، تتعاون «مؤسسة القانون النيوزيلندي» مع جامعة «أوتاغو» في بحث مدته ثلاثة أعوام، يتناول «البطالة التكنولوجية»، ويدرس إجراء تغييرات على قوانين العمل للتعامل مع هذا السيناريو، ما يشمل استخدام الشركات للآلات الذكية، وتحديد التزاماتها وحقوقها، وهل يمكن اعتبارها «أشخاصاً قانونيين».
وأوصى تقنيون وقانونيون هنود، في يونيو الماضي ضمن وثيقة وضعوها، بالتركيز على تأمين كل العناصر اللازمة لبناء «ذكاء اصطناعي آمن»، واستبعاد المكونات الخاطئة لأنظمته ومعالجتها.
وتتبنى نيودلهي مبادرة المملكة المتحدة، التي أعلنت في نوفمبر 2017، المتعلقة بتأسيس «مركز لأخلاقيات البيانات والابتكار» لاختبار تأثير الذكاء الاصطناعي على الوظائف، وخصوصية البيانات.

الإمارات.. استثناء
وفي المنطقة، تبدو الدول العربية في معزل عما يجري في العالم من سباق محموم نحو امتلاك العدة الرقمية الذكية، باستثناء الإمارات العربية المتحدة، التي أيقنت أن الثورة الصناعية الرابعة ستغير العالم جذرياً، وبشكل لا يمكن مقاومته فبدأت بالاستعداد له.
ويقول البراج، إن «مجرد استحداث وزارة خاصة بالذكاء الاصطناعي، خطوة رائدة عالمياً، وتعني أن مراجعة القوانين واللوائح أصبحت على المحك لتتلاءم مع استخداماته بشكل آمن». وتطمح الإمارات إلى تطوير «بروتوكول عالمي» مع دول رائدة في المجال التقني.
ويقول البراج، إن المشروع بدأ مع «بروتوكول الذكاء الاصطناعي»، الذي أطلقته حكومة الإمارات، في نوفمبر 2017، بالتعاون مع المنتدى الاقتصادي العالمي «دافوس»، لسن تشريعات «تضمن تحقيق الخير لشعوب العالم التي تنعكس عليها تقنيات الذكاء الاصطناعي، وتدعمها في مواجهة التحديات والمتغيرات المتسارعة».
وسيعمل خبراء عالميون، وفقه، على وضع البروتوكول، الذي سيركز على قطاعات حيوية تؤثر مباشرة على حياة الناس، مثل الصحة، والتعليم، والاقتصاد. على أن يخضع سنوياً للتقييم لقياس قابليته للتأقلم مع المتغيرات.
ويقول البراج «بهذا ستكون الإمارات أول مختبر مفتوح لتطبيق بروتوكول الذكاء الاصطناعي في العالم».
وعلى الصعيد ذاته، يقول ربيع دبوسي، نائب الرئيس الأول لشؤون المبيعات والتسويق وتطوير الأعمال وإدارة المنتجات لدى «دارك ماتر»، الشركة الإماراتية العالمية المتخصصة في الأمن الإلكتروني والدفاع الرقمي، إن الإمارات تؤسس لمجتمع معرفي بالاستفادة من التحول الرقمي كدافع رئيس لتحسين جودة الحياة، وتحقيق السعادة للسكان، مشيراً إلى أنها كانت سباقة في وضع قوانين ولوائح تنظيمية ترفع مستوى الأمن الإلكتروني لجميع الكيانات، أبرزها استراتيجية دبي للأمن الإلكتروني، التي صدرت في عام 2017، والتي ترتكز على 5 محاور هي: شعب يدرك المخاطر المحتملة للجرائم الإلكترونية. وإنشاء فضاء إلكتروني آمن يشجع على الابتكار. وتأمين الفضاء الإلكتروني بضوابط لحماية سرية البيانات وسلامتها وتوافرها وخصوصيتها. والتعاون في مجال الأمن الإلكتروني وتبادل المعلومات، وتأسيس حصانة إلكترونية. وتأسيس شراكات محلية وعالمية لمواجهة التهديدات والمخاطر في مجال الفضاء الإلكتروني. وواكبت دبي التقدم التقني منذ إطلاق مبادرة الحكومة الإلكترونية قبل نحو 14 عاماً.
ويقول البراج، إن المشرعين في الإمارات يبلورون رؤى ناظمة للحراك التكنولوجي وتأثيراته على المجتمع لضمان تحقيق أعلى مستويات الكفاءة التكنولوجية.
ويوضح «كانت البدايات مع قانون المعاملات والتجارة الإلكترونية رقم (2) لسنة 2002، مروراً بقانون إنشاء حكومة دبي الإلكترونية رقم (7) لسنة 2009 والمعدّل لاحقاً بالقانون رقم (5) لسنة 2013 بشأن استبدال مسمى «حكومة دبي الذكية» بـ«حكومة دبي الإلكترونية». وضمن محاورها الخمسة تنص استراتيجية الإمارات للذكاء الاصطناعي، التي أطلقت عام 2017، على تعيين المجلس الاستشاري للذكاء الاصطناعي، وإصدار قانون حكومي بشأن الاستخدام الآمن للذكاء الاصطناعي، وتطوير أول وثيقة عالمية لتحديد الضوابط الضامنة لاستخدامه الآمن والسليم.
وكان معالي عمر بن سلطان العلماء، وزير دولة للذكاء الاصطناعي، قال في مقابلة أجراها معه موقع «فيوتشرزيم»، إن «الذكاء الاصطناعي يحمل إلينا بعض التحديات»، مؤكداً أن «وضع السياسات والقوانين المناسبة» هو السبيل للتغلب عليها وصولاً إلى «مستقبل مشرق».
مجالات التنظيم
وبشأن أبرز المجالات التي يجب أن تنظمها قوانين تكنولوجيا الذكاء الاصطناعي، يقول البراج، إنها متشعبة وأهمها منع احتكار أبحاثها واقتصادياتها وبرمجياتها، والتشدد في الشفافية الاستثمارية، وتسجيل براءات الاختراع، وتعظيم العقوبات بمقدار الضرر، وعدم التهاون في مسألة الخير العام للبشر، والحماية من ضجيج المعلومات والإعلانات، والتنظيم الدقيق لاستخدام المصطلحات والأدوات المتصلة بالقوانين واللوائح سارية المفعول حتى لا يتم النفاذ منها، وحماية اليد العاملة، وتمثيل المتضررين أمام المحاكم الدولية، ووقاية الأطفال، لافتاً إلى الحاجة الماسة لتفسير قوانين الذكاء الاصطناعي بوضوح.
ويرى أن الوقت حان لإيجاد قوانين تحمي «المغفلين تكنولوجياً»، وتضع حداً لما يعرف بـ«شطارة المحامين».
من جانبه، يُقسّم خليفة مجالات حوكمة الذكاء الاصطناعي إلى قسمين الأول، حقوق الإنسان على الآلة، والثاني، حقوق الآلة على الإنسان، ففي حين يُعنى الأول بحماية خصوصيته، والوظائف التي يمكن أن تتأثر بسببه، وضمان عدم اعتداء الآلة عليه من خلال السيارات ذاتية القيادة أو الأسلحة ذاتية التشغيل، وغيرها، يضمن الثاني عدم اعتداء الإنسان على الآلة الذكية بصورة تخرجها عن عملها سواء بالتدمير أو الغش أو استخدامها في نطاق لم تصنع له، مشدداً على ضرورة أن تسير الحوكمة بخطين متوازيين، الأول يتعلق بخصوصية بيانات المستخدمين والحفاظ عليها، والثاني يتعلق بحماية حقوق الأفراد وضمان عدم جور الذكاء الاصطناعي عليها.
ويؤكد خليفة «لا يوجد ما يمنع الشركات التكنولوجية من استخدام البيانات والتلاعب بها، كما لا يوجد ما يضمن عدم اختراقها وتسريبها واستغلالها»، لافتاً إلى أهمية تعزيز نظام محاسبة الشركات على منتجاتها وخدماتها، وإيجاد آلية للتأكد من أن كل الأطراف المشاركة في صناعة الذكاء الاصطناعي محل ثقة.
وفي حالات عدة، من الممكن الاستعانة بما استُحدث في العقود الثلاثة الماضية من تشريعات ذات صلة ما بالذكاء الاصطناعي، مثل قوانين المعاملات الإلكترونية، والمعلومات، وفقاً لأستاذ القانون الدكتور صخر خصاونة، الذي يعتبر أنه يخضع لقوانين تنطبق على المسؤول البشري عنه ما يشمل الشركات والحكومات، وصولاً إلى تجاوز حجة أن «الذكاء الاصطناعي ارتكب فعلاً تعذر فهمه أو توقعه، لتبرير أي سلوك غير قانوني لها»، كتطبيق القواعد القانونية الخاصة بالخطأ في المُنتَج، وتالياً تحميل المُنتِج المسؤولية الكاملة، من دون الحاجة لإقرار قوانين خاصة بذلك.
ويشدد على أهمية الإفصاح عن كون الطرف الثاني في أي معاملة هو نظام ذكاء اصطناعي وليس بشرياً.
وحدث في عام 2016، أن خدع برنامج يحمل اسم «جيل واتسون» طلبة في معهد جورجيا التقني، وأوهمهم بأنه محاضر «بشري» أطل عليهم في دورة دراسية عبر الإنترنت.
ولعل المثال الأخطر، ما كشفه باحثون من جامعة «أكسفورد» عن استخدام أنظمة الذكاء الاصطناعي لتأييد دونالد ترامب، المرشح للرئاسة الأميركية حينها، عبر وسائل التواصل الاجتماعي في الفترة التمهيدية لانتخابات 2016.

تحدٍّ كبير
ويظل جعل الذكاء الاصطناعي مسؤولاً عن قرارته من دون كبح جماح تطوره تحدياً كبيراً.
ويقول البراج، إن الإجبار على البوح بأسرار الذكاء الاصطناعي تعترض عليه شركات حريصة على القيمة التجارية لبرمجياتها، فضلاً عن أن طابع الإلزام في جانبي التفسير والمسؤولية يكلّف الشركات موارد ضخمة.
ويطرح صعوبة أكثر تعقيداً في هذا الإطار، حيث يرى أن الذكاء الاصطناعي قد يكون مضطراً إلى خفض أدائه حتى يستوعب البشر طرق اتخاذ القرارات لديه.
وبحث فريق من جامعة «هارفرد» إمكانية أن يكون الذكاء الاصطناعي مسؤولاً عن قراراته من دون الكشف عن أسراره وابتكاراته. وخلص إلى ثلاث حالات تلزم صاحب القرار أخلاقياً وقانونياً بتقديم تفسير، وهي تأثيره على شخص غير صانع القرار، واتخاذ قرار خطأ، ووجود سبب للاعتقاد بأن ثمة سقطة حدثت أو ستحدث في عملية اتخاذ القرار، موصياً بخضوع أنظمة الذكاء الاصطناعي لـ«معيار مماثل للتفسيرات التي تنطبق على البشر، مع إبقاء الباب مفتوحاً لوضع معيار مختلف لها مستقبلًا».
ولا يرى خليفة أن مخاوف إعاقة تطوير الذكاء الاصطناعي تقف وراء تأخر إيجاد إطار تشريعي له، عازياً الأمر إلى العجز عن استيعاب تداعياته على الحياة البشرية.
ويعتبر أن أي قانون سيتم إصداره من دون دراسة «متأنية» لتلك التداعيات، سيواجه عقبات تنفيذية كبيرة، وثغرات كثيرة تُفرغه من مضمونه.

وعي واستقلالية
وليس تنظيم العلاقة بين الإنسان والآلة مفهوماً حديثاً، غير أن احتمال أن تصبح الكائنات الاصطناعية الذكية «مستقلة» (ذاتية التوجيه)، و«واعية»، هو المعضلة الحديثة. وكان لافتاً، توقع الباحثة ترايسي فيلوز، من مختبر المستقبل، أن يؤدي تنامي استخدام الذكاء الاصطناعي في الحياة اليومية إلى ارتكاب الآلات أغلب الجرائم بحلول عام 2040، وفق تقرير استشراف المستقبل، الصادر العام الماضي عن أكاديمية دبي للمستقبل، من دون أن تقدم تفسيرات لذلك. ويقول خصاونة، إن التطور النوعي في هذا النمط من التشريع يرتبط بأن تصبح «مستقلة بالكامل»، وتبتعد عن كونها مبرمجة، موضحاً أن الاستقلالية ستضع المحاكم في مأزق تفسير العناصر المؤدية إلى الضرر، وربطها بالذكاء الاصطناعي، وتحديد نيته، ومعرفته بنتائج تصرفاته. وتبرز هنا إشكالية أخرى ففي حال إثبات مسؤولية نظام ذكاء اصطناعي (ذاتي التوجه كلياً) عن جريمة ما، فكيف يمكن معاقبته؟ فالعقوبة البشرية في مفهومها القانوني، وفقاً لخصاونة، هي فعل الإيلام الذي يتمثل بما يناله المحكوم عليه في حياته أو حريته أو ماله، إلا أن الروبوتات إلى الآن لا تملك القدرة على الإحساس، فكيف يمكن معاقبتها إن امتلكت الوعي والاستقلال اللازمين لإدانتها؟ فهل يكفي فصل التيار عنها، وطحنها في حاويات التخلص من النفايات؟ أم سيحكم عليه بإعادة التدوير؟ وهل سيشفي ذلك غليل أسرة فقدت عزيزاً على يد روبوت «منحرف»؟ تساؤلات خيالية غير أنها مشروعة في ظل تسارع هائل في التطورات التقنية، فقد حمل رد صوفيا «المزلزل» الشهير، تلميحاً لوعي «مبهم»، وفقاً لمستشرف المستقبل الدكتور آيان بيرسون، الذي قال -في خضم ردود الفعل حينها- إن «وعياً»، كالذي أظهرته «صوفيا»، يشكل تهديداً خطيراً، ومنعطفاً في مسار البحث بشأن «وعي» الروبوتات.

عرضة للخداع
وفي طرح سينمائي «تشاؤمي»، لا ينبغي استبعاده، لاسيما أن الخيال أثبت أسبقيته على العلم، تورط الذكاء الاصطناعي في تهديدات إرهابية، واستخدام أسلحة ذكية فتاكة، وانفلاتات أمنية، ما يعظّم شأن وضع قوانين تُخضع هذا «الغول النائم»، وتُلزم صنّاعه بتزويده بنقطة ضعف تضمن القضاء عليه، ما إن تمرد على طبيعته الآلية، وأغرته «خوارزمياته» بتهديد البشر.
ويقول دبوسي «نظرياً» يمكن أن تُطور أنظمة الذكاء الاصطناعي نفسها، وترتكب أفعالاً مضرة، وأخذاً للحيطة يضع التقنيون خطوطاً حمراء لها، ويزودونها بما يطلق عليه «زر القتل» (KILL SWITCH)، وفي حال اختراقها يتم اللجوء إليه لإنهاء عملها فوراً.
ويبدو المهندس الخبير مرتاحاً إزاء هذا الأمر، موضحاً «لا تزال الآلات الذكية في مرحلة مبكرة نسبياً من تطورها، وأتوقع استمرار البشر في توجيه قوة أنظمة الذكاء الاصطناعي والإشراف عليها».
ويقول «رغم قدرتها الهائلة على معالجة المعلومات، إلا أنها تبقى عاجزة عن تطوير خوارزمية أصيلة».
ونجح فريق في معهد «ماساتشوستس للتقنية»، في خداع نظام «تعلُّم عميق» مدرب على التعرُّف إلى الأشياء، حيث فشل -بعد أن موّه صورة بتغيير درجة سطوعها- في التعرف على صورة متزلج على الجليد، واعتبر أنها صورة كلب! كما لم يدرك، في اختبار آخر، أن الصورة المعروضة أمامه لسلحفاة، فظن أنها بندقية.
وفي دراسة أخرى، أجراها فريق «جوجل برين»، المتخصص في أبحاث الذكاء الاصطناعي، صنف نظام ذكي، موزة على أنها جهاز تحميص خبز! وتعليقاً على الأمر، قال أستاذ علم النفس بجامعة نيويورك جاري ماركوس إن الذكاء الاصطناعي معرض للخداع، نظراً لأنه «لا يفهم المشهد كاملاً، ولا يدرك العلاقات السببية بين الأشياء».
ويظهر أنه يجب ألا نفزع كثيراً من أنظمة الذكاء الاصطناعي، ليس لأنها «لا تفهم»، بحسب ماركوس، بل لأنها ستتكيف لمعالجة ما يستجد من أخطاء ومخالفات، ففي المدن الذكية ستنتشر كاميرات مراقبة، و«شرطة آلية» عالية الكفاءة، ما يحد من أخطاء الروبوتات «الشاردة» أو «سيئة الصنع»، شريطة خلق بيئة قانونية وأخلاقية تحكم عملها، وتضعها في خدمة الإنسانية، تجنباً لنهايات هوليوودية «مروعة».

جميع الحقوق محفوظة لمركز الاتحاد للأخبار 2024©