حين يصبح الذكاء الاصطناعي فريسة للأوهام | النهار

حين يصبح الذكاء الاصطناعي فريسة للأوهام | النهار

تسابق كبريات شركات التكنولوجيا مثل “غوغل”  و”أمازون”  وCohere وMistral   الزمن للحد من ظاهرة “هلوسة” نماذج الذكاء الاصطناعي التوليدي، وهي الظاهرة التي تدفع هذه النماذج إلى إنتاج معلومات غير دقيقة أو مختلقة. وتعد معالجة هذه المشكلة أمرًا حاسمًا لتوسيع استخدام الذكاء الاصطناعي في قطاعات حساسة مثل القانون والرعاية الصحية، حيث تتطلب هذه المجالات دقة عالية وموثوقة.

 

هذه الأخطاء تسببت في مواقف محرجة وخسائر مالية، مثل حادثة Air Canada عندما اضطرت الشركة إلى احترام خصم وهمي اخترعه روبوت دردشة تابع لها، إضافة إلى تعرض محامين لعقوبات بعد اعتمادهم على مراجع قانونية مختلقة أعدها الذكاء الاصطناعي.

 

 

ويحذر الخبراء من أن القضاء تماماً على هذه الظاهرة مستحيل بسبب طبيعة عمل هذه النماذج، التي تعتمد على توقع الكلمة التالية الأكثر احتمالاً استناداً إلى بيانات ضخمة سابقة. ومع أن تقنيات مثل البحث المُعزز بالاسترجاع (RAG) وإتاحة النماذج للوصول إلى قواعد بيانات موثوقة قلّصت نسبة الأخطاء بشكل ملحوظ، إلا أن معدلات “الهلوسة” تختلف بين نموذج وآخر، حيث سجلت بعض النماذج نسبًا منخفضة تصل إلى 0.7% فقط، وفق تصنيف أعدته شركة Vectara.

 

وتسعى شركات مثل Mistral  وCohere  إلى ربط نماذجها ببيانات داخلية للشركات ووكالات الأنباء الكبرى مثل “أ ف ب” لتعزيز التحقق من الحقائق. فيما أضافت شركات أخرى، مثل “أمازون”، أدوات جديدة لاختبار دقة الإجابات من خلال ما يسمى بـ”الفحوصات المنطقية الآلية”.

 

مع ذلك، يؤكد الخبراء أن الحقيقة المطلقة ستظل بعيدة المنال؛ لأن “الحقيقة” نفسها متغيرة ومرتبطة بالسياق والزمن. بل إن بعض التطبيقات تتطلب أحيانًا هذا النوع من “الخيال” الاصطناعي، مثل كتابة الشعر أو ابتكار أفكار جديدة، وهو ما يجعل “الهلوسة” مفيدة في بعض الحالات الإبداعية.