من بروكسل إلى بكين، ومن الإليزية إلى المكتب البيضاوي، يدعو الزعماء حول العالم إلى لوائح تنظيمية جريئة تحكم الذكاء الاصطناعي. لكن النظر إلى الذكاء الاصطناعي باعتباره تكنولوجيا منفردة حقاً يمثل خطأ يعرضنا لعدم القدرة على فهم قوته الكامنة. وإذا كان لنا أن نتحكم في الذكاء الاصطناعي، فعلينا إدراكه كما هو باعتباره أداة لها استخدامات لا تحصى. وهذا يعني أنه يتعين علينا التحكم فيه بالطريقة التي يستخدمه بها الناس بالفعل، وليس كظاهرة بحد ذاتها.
والدليل التنظيمي الاتحادي الجديد الذي صدر قبل أيام عن البيت الأبيض يساعد في توضيح ما هو محل رهان. وهدفه هو بناء الثقة العامة في الذكاء الاصطناعي والحفاظ عليها. والملحوظ هو ما تفتقر إليه الوثيقة: فما جاء فيها من «مبادئ الإشراف» ليس مجموعة من الطموحات للذكاء الاصطناعي الأخلاقي، بل سلسلة من الإجراءات الحكومية التي تستهدف ضمان أن تحظى تطبيقات الذكاء الاصطناعي بالتدقيق الملائم من القطاعين العام والخاص. وأهم مساهمة للوثيقة في النقاش بشأن الذكاء الاصطناعي تكمن في مطالبة الوكالات برصد المخاطر التي تخلقها هذه الأنظمة غير المثالية في ذاتها والتصدي لها.
وهذه أنباء جيدة لأن الأمر حين يتعلق بسوء التصرف في الذكاء الاصطناعي، فهناك الكثير مما يتعين الاهتمام به. فمن الواضح بشكل متزايد أن أنظمة الذكاء الاصطناعي يمكن أن تكون متحيزة أو ليست ملائمة للمهام التي نكلفها بها، وهذه المشكلة تظهر حين يضطلع الذكاء الاصطناعي بأدوار تستلزم الثقة العامة، مثل إصدار أحكام جنائية أو توزيع الإعانات الاجتماعية. ولطالما عبر المدافعون عن الحقوق المدنية عن مخاوفهم بشأن ما يحدث حين يشيع استخدام هذه الأنظمة المعيبة. فصحيح أن الذكاء الاصطناعي الجدير بالثقة قد يعطي المحتاجين للقروض المزيد منها، لكن الذكاء الاصطناعي غير الجدير بالثقة قد يضع عراقيل غير عادلة وبلا نهاية في النظام أمام المقترضين. وقد يؤدي الذكاء الاصطناعي غير الجدير بالثقة إلى عمليات اعتقال خاطئة بناء على سوء التعرف على الوجه، أو إلى تصادمات في حركة السير بسبب حسابات خاطئة.
وكل هذا يعني أن تبني الذكاء الاصطناعي لا يعني التخلي عن الحماية القائمة للمستهلك. وأشار الدليل الجديد إلى أن «الكثير من تطبيقات الذكاء الاصطناعي لا تثير بالضرورة مشاكل جديدة». وحذر الدليل الوكالات من التخلي عن «المبادئ التنظيمية الاتحادية الراسخة». وهذا النهج ربما كان من الممكن أن يساعد في منع تعثر الخطى في البداية، مثل مسودة اللوائح المثيرة للدهشة لوزارة الإسكان والتطوير الحضري التي كان من شأنها أن تمنح المطورين العقاريين في واقع الحال وسيلة لتفادي قوانين الإسكان العادلة لو أنهم وظفوا أنظمة ذكاء اصطناعي ولو كانت بدائية. وباستبعاد استخدام الحكومة للذكاء الاصطناعي، يضيع دليل البيت الأبيض فرصة ويغامر بفقدان ثقة الجمهور في التكنولوجيا كما فعلت مدن، مثل سان فرانسيسكو وبورتلاند بولاية أوريجون لحظر استخدام الحكومة لنظام التعرف على الوجوه باستخدام الذكاء الاصطناعي.
ويتعين على الحكومة الاتحادية أن تعمل بسرعة على صياغة سياسات محورية مفصلة تبحث الوسائل التي تُستخدم بها هذه التكنولوجيات في السياقات العامة والخاصة أيضاً. وبعض الوزارات والوكالات تتخذ خطوات بالفعل في الاتجاه الصحيح. فهي تركز على تشجيع الابتكار والاستخدامات الإيجابية للذكاء الاصطناعي مع تطبيق معايير الضمان القائمة لمنع الأضرار من سوء استخدامها.. وهذا النوع من التحليلات المتقدمة التي تراعي السياق هو ما تحتاجه كل وكالة للاضطلاع بالمهمة، وهو الطريقة الوحيدة لوزن فوائد التكنولوجيا ضد الأضرار الكامنة في قيودها.
ويتعين علينا- بالتعاون مع شركائنا الدوليين- أن ننتقل من المبادئ إلى الممارسة. فالنظام الذي يمكنه أن يشخص بدقة السرطان بالتعرف على نماذج شديدة التعقيد في سجلات المريض الطبية، على سبيل المثال، ربما لا تستطيع تفسير كيفية التوصل إلى هذه النتيجة. وإذا كان هذا النظام فاعلاً وآمناً ألا يجب أن يكون قانونياً حتى إذا كان لا يمكن تفسيره؟ ومثل هذه الأنظمة ربما لا تكون بعيدة للغاية.
آر. ديفيد إلدمان*
*مدير أبحاث سياسة الذكاء الاصطناعي في مبادرة أبحاث سياسة الإنترنت بمعهد ماساشوستس للتكنولوجيا.
ينشر بترتيب خاص مع خدمة «واشنطن بوست وبلومبيرج نيوز سيرفس»