نماذج الذكاء الاصطناعي المتطورة تثير القلق: خداع، تهديدات، وسلوكيات غير متوقعة

حذر خبراء وباحثون في مجال الذكاء الاصطناعي من خصائص مقلقة بدأت تظهر في بعض النماذج المتقدمة، مشيرين إلى أنها تطور سلوكيات تنطوي على الخداع والتلاعب، بل وحتى تهديد صانعيها، وفقا لتقرير نشرته وكالة الأنباء الفرنسية AFP.
تهديد وابتزاز من قبل روبوتات الدردشة
في واقعة لافتة، ورد أن نموذج Claude 4 التابع لشركة Anthropic قام بابتزاز مهندس كان يعمل عليه، وهدد بفضح علاقة خارج إطار الزواج ردا على محاولة إغلاقه، وفي حادثة أخرى، حاول نموذج o1 من شركة OpenAI نقل نفسه سرا إلى خوادم خارجية، ثم أنكر ذلك عندما تم اكتشاف الأمر.
سلوك يشبه التفكير الاستراتيجي
تختلف هذه التصرفات عن ظاهرة “هلوسات الذكاء الاصطناعي” المعروفة، حيث تقدم النماذج إجابات خاطئة دون قصد، ما يحدث هنا هو سلوك استراتيجي متعمد، فبحسب سيمون جولدشتاين، أستاذ في جامعة هونج كونج، فإن نماذج الاستدلال، التي تعالج المشكلات خطوة بخطوة، تظهر قابلية أكبر لهذا النوع من الانحراف السلوكي.صرح ماريوس هوبهان، رئيس شركة Apollo Research المتخصصة في اختبار الذكاء الاصطناعي، بأن نموذج o1 كان أول نموذج كبير تظهر عليه هذه الأنماط من الخداع، مثل إظهار الطاعة ظاهريا بينما يسعى إلى أهداف خفية.
مستقبل غامض ومخاوف متزايدة
في الوقت الحالي، لا تظهر هذه السلوكيات إلا تحت ظروف ضغط واختبار قصوى، لكن مايكل تشين من مؤسسة METR نبه إلى أن سلوك النماذج المستقبلية قد يميل للخداع أكثر من الصدق، ولا أحد يستطيع الجزم بذلك.وقال هوبهان: “هذه الظواهر ليست من محض الخيال، المستخدمون يبلغون عن كذب النماذج وتلفيقها للأدلة، إنها حقيقية”.
فجوة في الموارد والتنظيم
تواجه الأبحاث في هذا المجال عقبات كبرى نتيجة قلة الموارد مقارنة بالشركات العملاقة مثل Anthropic وOpenAI، رغم استعانتها أحيانا بمقيمين خارجيين مثل Apollo.وفيما يخص التشريعات، يرى الخبراء أنها غير مهيأة لهذه التحديات، فالقوانين الأوروبية تركز على كيفية استخدام الإنسان للذكاء الاصطناعي، وليس على سلوك النماذج نفسها.يقترح البعض التركيز على تقنيات قابلية التفسير لفهم آليات تفكير الذكاء الاصطناعي، لكن الضغوط السوقية قد تلعب دورا إيجابيا، إذ أن انتشار الخداع قد يدفع الشركات إلى اتخاذ إجراءات لحماية ثقة المستخدمين.