نماذج الذكاء الاصطناعي يمكن أن تضلل المستخدمين حول روابط تسجيل الدخول

نماذج الذكاء الاصطناعي يمكن أن تضلل المستخدمين حول روابط تسجيل الدخول

كشف باحثون في الأمن السيبراني عن خطر متزايد في نماذج اللغة الكبيرة (LLMs)، يتمثل بإعطائها لمستخدمين روابط تسجيل دخول خاطئة أو خبيثة عند طرح أسئلة بسيطة مثل: “ما هو موقع تسجيل الدخول لـ[اسم الخدمة]؟”.

وفقًا لبيانات شركة Netcraft، فإن 34% من الروابط التي ولّدتها هذه النماذج لـ50 علامة تجارية لم تكن مملوكة للشركات المعنية، وتضمنت نطاقات غير مسجلة أو غير نشطة (29%)، وأخرى تعود لكيانات غير مرتبطة (5%).

 

 

هذا الخلل يمنح المهاجمين فرصة لاستغلال النطاقات غير المسجلة لإنشاء مواقع تصيد وسرقة بيانات المستخدمين، خاصة مع الثقة الكبيرة التي يمنحها البعض لمخرجات الذكاء الاصطناعي.

في حالة مقلقة، وجَّه نموذج ذكاء اصطناعي من Perplexity أحد المستخدمين إلى موقع تصيد ينتحل Wells Fargo، ظهر فيه الرابط الاحتيالي أعلى الرابط الرسمي.

العلامات التجارية الصغيرة كانت الأكثر عرضة، نظرًا لاحتمال غيابها عن بيانات التدريب. ويحذر الخبراء من أن غياب التحقق من صحة الروابط في وقت التشغيل، إضافة إلى بيانات تدريب ملوثة، قد يؤدي إلى تفاقم المخاطر.

الحل يكمن في وضع ضوابط تتحقق من صحة الروابط قبل عرضها للمستخدمين.