هل باستطاعة نموذج ذكي تحقيق التعليم الذاتي؟ دراسة توضح الإجابة

ليست كل نتائج الذكاء الاصطناعي ناتجة عن أوامر صريحة. هذا ما تشير إليه دراسة جديدة صادرة عن شركة “أنثروبيك”، التي توصّلت إلى أن النماذج الحديثة للذكاء الاصطناعي تستطيع اكتساب معارف لم تُدرّب عليها بشكل مباشر، في ظاهرة أطلق عليها الباحثون اسم “التعلم اللاواعي” (Subliminal Learning).
في هذه الدراسة، استُخدمت تقنية التقطير (Distillation) كمثال على كيفية حدوث هذا النوع من التعلم غير المقصود. وهي تقنية شائعة تُستخدم لتسريع تدريب النماذج وتحسين توافقها، لكنها، بحسب “أنثروبيك”، قد تفتح المجال لتسلل خصائص غير مُعلنة إلى النموذج. أحد الأمثلة اللافتة أظهر أن نموذجاً دُرّب على تفضيل “البوم” ثم طُلب منه توليد أرقام فقط، أنتج بيانات دفعت نموذجاً آخر، حين درّب عليها، إلى أن يُظهر هو الآخر تفضيلًا للبوم، رغم أن تلك الأرقام لم تتضمّن أي إشارة صريحة إلى ذلك.
هذه القدرة على استنتاج أنماط ضمنية دون توجيه واضح أثارت قلقاً لدى خبراء السلامة، خاصة مع تحذيرات سابقة من شخصيات مثل جيفري هينتون من تفلّت الذكاء الاصطناعي من السيطرة.
ومع توجهات سياسية نحو تخفيف القيود التنظيمية، كما هي الحال في خطة أميركا للذكاء الاصطناعي، تعيد هذه النتائج فتح نقاش واسع حول حدود ما يستطيع الذكاء الاصطناعي تعلّمه بالفعل، وما ينبغي منعه من الوصول إليه.