هل يمكننا الحد من تقدم الذكاء الاصطناعي؟

هل يمكننا الحد من تقدم الذكاء الاصطناعي؟

*نانسي بدران

لم تُصمَّم نماذج الذكاء الاصطناعي المتقدمة لتخالف التعليمات عمداً، لكنها أيضاً لا تفهمها كما نفهمها نحن، وهذا ما جعل ما كان يوماً نقاشاً فلسفياً يصبح اليوم موضوعاً لتقييمات علمية وتحذيرات رسمية. فالمخاوف لم تعد مقتصرة على إساءة الاستخدام البشري فحسب، بل امتدت إلى احتمالات أن تتصرف هذه النماذج باستقلالية غير مرغوبة، أو أن تبدي محاذاة ظاهرية تخفي صعوبة التحكم الفعلي بها. وهكذا تحوّل السؤال الكبير من “هل يمكن السيطرة على الذكاء الفائق؟” إلى “متى وكيف؟ وهل سيكون ذلك ممكناً حين يحين الوقت؟”.

هذه المخاوف لم تظهر من فراغ. الفيلسوف نيك بوستروم، في كتابه المرجعي Superintelligence، كان من أوائل من أطلقوا تحذيراً واضحاً مما سماه “مشكلة السيطرة”، مؤكداً أن أي تأخير في بناء آليات تحكم مسبقة قد يجعل السيطرة على الذكاء الفائق شبه مستحيلة. وعلى المنوال نفسه، رأى البروفيسور ستيوارت راسل في كتابه Human Compatible أن المشكلة لا تتعلق بنيات هذه النماذج، بل بمدى قدرتها على فهم ما نريده حقاً، داعياً إلى تصميم أنظمة تضع القيم البشرية في صميم أهدافها بدلاً من الاكتفاء بتنفيذ التعليمات بحرفية باردة.

هذه الأفكار النظرية بدأت تجد صداها في تجارب واقعية. ففي آذار /مارس 2023، أجرى فريق ARC Evals بالتعاون مع شركة “أوبن إيه آي” تقييمات على نموذج GPT‑4. وبحسب وثيقة GPT‑4 System Card، لم يُظهر النموذج قدرات خارقة، لكنه أبدى قابلية محدودة للمراوغة عندما وُضِع في بيئات تتيح له استخدام أدوات تنفيذية. وفي تموزيوليو 2024، ظهرت ورقة بحثية بعنوان Supertrust: Foundational Alignment تقترح فكرة بناء “ثقة موقتة” مع النماذج الذكية كخطوة انتقالية، قبل الوصول إلى مستوى أعمق من المحاذاة الحقيقية.

 

 

 

ومع تصاعد القلق، ظهرت مقترحات عملية لكبح المخاطر موقتاً. ففي نيسان /أبريل 2025، صدرت ورقة بعنوان:

How to Evaluate Control Measures for  LLM Agents

قدّمت إطاراً تدريجياً لتقييم فعالية آليات التحكم، وشدّدت على أهمية فرق المحاكاة الهجومية أو ما يُعرف بـRed Teaming، لاختبار النماذج في ظروف حساسة تحاكي سيناريوهات خطرة. كما أوصت أبحاث أخرى بتقييد صلاحيات النماذج وتشغيلها ضمن بيئات مراقبة جزئياً، على الأقل ريثما تُطوّر أدوات تحكم أكثر نضجاً.

ومع ذلك، بقيت التحذيرات تتوالى. ففي حزيران /يونيو 2025، نشرت “أوبن إيه آي” تقريراً بعنوان Disrupting Malicious Uses of AI تناول استراتيجيات للحد من الاستخدامات الضارة، مشدداً على ضرورة الشفافية والرقابة المستقلة. وفي الوقت نفسه، أصدر مسؤولو ولاية كاليفورنيا تقريراً رسمياً حذّروا فيه من أضرار لا رجعة فيها إذا استُخدمت هذه الأنظمة من دون ضوابط صارمة، داعين إلى سياسة “الثقة مع التحقق”.

وأمام غياب آليات تحكم مضمونة حتى الآن، تبرز توصيات مؤسسات متخصصة بأمن الذكاء الاصطناعي، مثل Center for AI Safety، التي تدعو إلى التركيز على تقليل الأضرار القصيرة المدى من خلال القيود البرمجية، والرقابة البشرية المستمرة، والاختبارات المتكررة. وحتى يحين الوقت الذي يبلغ فيه الذكاء الاصطناعي مرحلة من النضج التقني والأخلاقي، سيظل الحذر المؤسسي والاستباق السياسي هما خطوط الدفاع الأولى… وربما الأخيرة.

 

دكتورة، و مهندسة حلول الحوسبة للمشاريع السحابية في الحكومة الفيدرالية، أوتاوا – كندا