القانون والخوارزمي: أيهما يأتي أولاً؟

القانون والخوارزمي: أيهما يأتي أولاً؟

ما زالت القوانين تسير على قدميها، بينما يركض الذكاء الاصطناعي بسرعة تعجز الأنظمة التشريعية عن مجاراتها. لا يعود هذا الخلل إلى غياب الإرادة، بل إلى طبيعة هذه التقنية نفسها: معقّدة، متحرّكة، وعابرة للقطاعات والحدود. وفي ظل هذا المشهد، يبرز سؤال لم يعد نظرياً فقط: كيف يمكن تنظيم الذكاء الاصطناعي من دون أن نضيّق على إمكاناته أو نغفل عن مخاطره؟

خلال مقابلتها مع “النهار”، تناولت دينيز سيليكايا (Deniz Celikkaya)، المدققة في أنظمة الذكاء الاصطناعي في المملكة المتحدّة ومستشارة حوكمته، أبرز التحديات التي تواجه المشرّعين والمؤسسات على السواء، مشيرة إلى أن الفجوة بين قدرات الذكاء الاصطناعي والتشريعات القائمة تتسع بوتيرة مقلقة.

تشريعات تحاول اللحاق
تقول سيليكايا إن العالم لا يزال في طور ردّة الفعل تجاه الذكاء الاصطناعي، إذ تسعى الدول لتعديل قوانينها أو تطويرها لمواكبة سرعة تطور هذه التقنية. وتوضح بأن “القوانين الحالية مثل اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي جرى توسيعها لتشمل بعض تطبيقات الذكاء الاصطناعي، لكنها لم تُصمَّم للتعامل مع تعقيداته الأساسية”.

وتضيف أن التحوّل بدأ يظهر في تشريعات جديدة تتبنّى منهجاً أكثر تخصصاً، مثل قانون الذكاء الاصطناعي الأوروبي (AI Act)، الذي يركّز على تقييم المخاطر، فيما فضّلت دول مثل المملكة المتحدة التريث، مكتفية بإصدار إرشادات عامة غير ملزمة حتى الآن.

 

لكنها تحذّر من أن هذا التوازن هشّ، مشيرة إلى أن “البطء التشريعي قد يؤدي إلى فراغ تنظيمي. لكن الإسراع غير المدروس قد يعرقل الابتكار”. وتشدّد على أن “كثيراً من شركات الذكاء الاصطناعي الكبرى تطالب بوقف تنظيم القطاع موقتاً، غير أن الواقع لا يمنحنا ترف الانتظار”.

في هذا السياق، تُشير سيليكايا إلى التجربة الإماراتية بوصفها مثالاً بارزاً للتحول في استخدام الذكاء الاصطناعي داخل الإطار القانوني، قائلة إن “الإمارات تقود التغيير في مجال قوانين الذكاء الاصطناعي، حيث أصبحت أول دولة في العالم تستخدم الذكاء الاصطناعي لصياغة القوانين وتحديثها، وتهدف إلى تسريع عملية التشريع بنسبة 70%”.

وترى أن ما تقوم به الإمارات يُمثّل ما يحدث في الكواليس داخل معظم الحكومات والقطاعات القانونية، ولكن بطريقة معلنة وشفافة، وتضيف: “لا أحد اليوم لا يستخدم الذكاء الاصطناعي، لكن علينا فقط أن نكون حذرين ومجتهدين في ما يتعلق بالحَوْكمة الأخلاقية”.

وتؤكد أن بقية الدول العربية بدأت بالفعل بالدخول إلى هذا المسار: “السعودية أصدرت إرشادات خاصة بالذكاء الاصطناعي التوليدي في عام 2024 لضمان الاستخدام الأخلاقي في القطاعين الحكومي والعام، والبحرين تجرّب إرشادات منتدى الاقتصاد العالمي بشأن شراء أنظمة الذكاء الاصطناعي، بينما تطوّر كل من قطر والكويت استراتيجيات وطنية متكاملة للذكاء الاصطناعي”. وتعلّق بأن “الدول العربية منخرطة بفاعلية في صياغة الأطر القانونية، والعالم بدأ ينظر إليها كنموذج وقدوة”.

 

 

 

عقبات تقنية وأخلاقية
ترى سيليكايا أن التحديات لا تقتصر على القانون، بل تتجاوز ذلك إلى عمق التقنية نفسها. وتذكر أن أبرز ما تواجهه أثناء تقديم المشورة يتمثل بـ “الصندوق الأسود” للذكاء الاصطناعي، أي النماذج التي يصعب تفسير طريقة اتخاذها للقرارات. وتضيف: “كيف يمكن فرض الشفافية أو تحقيق العدالة في قرارات لا نفهم كيف اتُّخذت؟”.
إلى جانب ذلك، تشير إلى الخطر الكامن في البيانات التاريخية التي تغذّي الأنظمة الذكية. فالذكاء الاصطناعي –بحسب وصفها– “يتغذّى على الماضي، ويكرّر أنماطه”، مما يعني أنه قد يُعيد إنتاج التحيّزات والتمييزات الاجتماعيّة نفسها.

 

وتضرب مثالاً بأنظمة شرطية في الولايات المتحدة أظهرت تحيّزاً واضحاً ضد ذوي البشرة السوداء، نتيجة الاعتماد على بيانات مشوبة بانحياز تاريخي. وتضيف: “ما لم نُدرّب الذكاء الاصطناعي على التفكير العادل، فإنه سيُعيد إنتاج مظالم لا يدركها”.
وتشير إلى وجود فجوة خطيرة في الكفاءات البشرية المؤهلة لمواكبة هذه التحديات، قائلة: “العديد من المؤسسات لم تستثمر بما يكفي في تطوير فهم أخلاقي وتقني متكامل لدى موظفيها، وهو ما يجعل الذكاء الاصطناعي ليس فقط تحدياً قانونياً، بل مصدراً محتملاً لخطر reputational كبير”.

 

تنظيم بلا عمومية
تعتقد سيليكايا أن الخطأ الأكبر الذي يمكن ارتكابه هو فرض تشريعات عامة لا تأخذ الفروق القطاعية في الاعتبار. “تنظيم الذكاء الاصطناعي يجب ألا يكون شمولياً. فالمخاطر في قطاع مثل الرعاية الصحية ليست هي نفسها في قطاع التسويق أو الخدمات اللوجستية”.

 

وتقترح بدلاً من ذلك إنشاء “مساحات اختبار آمنة” (regulatory sandboxes)، حيث يمكن اختبار تقنيات جديدة تحت إشراف قانوني مدروس، قبل السماح لها بالوصول إلى المستخدمين.

 

وتؤكد أن التعاون بين الجهات التنظيمية والخبراء والقطاع الخاص ضروري لصياغة قوانين واقعية يمكن تنفيذها، مشددة على أهمية وجود إرشادات واضحة ومحددة حسب كل قطاع، “حتى لا تبقى المؤسسات في حالة من الضبابية التي لا تعرف فيها ما يُطلب منها”.

 

قطاعات حرجة بلا بوصلة قانونية
ترى سيليكايا أن بعض القطاعات تحتاج عاجلاً إلى أطر قانونية واضحة، على رأسها القطاع الصحي، حيث أصبح الذكاء الاصطناعي يُستخدم لتقديم توصيات طبية وتشخيصات قد تكون مصيرية.

 

وتروي حالة في المملكة المتحدة، حين أعطى نظام ذكي في هيئة الصحة الوطنية (NHS) توصية بنقل رجل إلى المستشفى فوراً عند ظهور أعراض نوبة قلبية، بينما نصح امرأة تعاني الأعراض نفسها بـ”الهدوء” على اعتبار أنها تمر بحالة نفسية. “البيانات كانت على الأرجح غير شاملة، أو أن تصميم النظام أغفل الفروقات الفسيولوجية بين الجنسين. النتيجة كانت عدم عدالة تشخيصية، وهو ما لا يمكن قبوله في قطاع كهذا”.

 

وتشير إلى أن القطاع المالي يواجه مشكلات مشابهة، حيث يُستخدم الذكاء الاصطناعي في تقييم الجدارة الائتمانية أو مخاطر العودة إلى الجريمة، اعتماداً على بيانات قد تعكس انحيازات طبقية أو عنصرية لا علاقة لها بالسلوك الفردي.

 

بين الممكن والواجب
تختم سيليكايا حديثها بتأكيد أن التعامل مع الذكاء الاصطناعي لا يمكن أن يظل استجابة ظرفية، بل هو مشروع تشريعي طويل يتطلب وعياً تقنياً وقانونياً متوازياً، وإرادة سياسية لا تؤخر التنظيم باسم الابتكار.