ذكريات مصطنعة… كيف يعيد الذكاء الاصطناعي تشكيل تاريخنا؟

ذكريات مصطنعة… كيف يعيد الذكاء الاصطناعي تشكيل تاريخنا؟

أظهرت دراسة حديثة قادتها عالمة النفس إليزابيث لوفتوس، أستاذة بجامعة كاليفورنيا في إيرفاين، بالتعاون مع الباحث بات باتارانوتابورن من مختبر الوسائط في معهد ماساتشوستس للتكنولوجيا، أن الذكاء الاصطناعي قادر على زرع ذكريات زائفة لدى الأشخاص حتى عندما يُبلَّغون مسبقًا أن المحتوى مولَّد آليًا.

شملت التجارب ثلاثة أساليب: طرح أسئلة مضللة من شات بوت بعد مشاهدة فيديو جريمة، مما زاد معدل الذكريات الخاطئة بمقدار 1.7 مرة مقارنة بالأسئلة المكتوبة؛ تقديم ملخصات مضللة أضعفت تذكر المعلومات الصحيحة؛ وعرض صور وفيديوهات معدّلة أو مولَّدة بالكامل، حيث كانت أعلى نسب التشويه لدى من شاهدوا فيديوهات مولدة من صور مولدة. بعض التغييرات كانت طفيفة — مثل تعديل الطقس أو إضافة وجود عسكري — لكنها نجحت في ترسيخ حوادث لم تقع، ما يثير مخاوف جدية من استغلال هذه القدرات في الإعلام والسياسة.

ذاكرة تحت الحصار

يقول الدكتور مهند حبيب السماوي، الباحث والمختص في تحليل ظواهر العالم الرقمي، في حديث إلى “النهار”، إن ما يجعل هذه الظاهرة شديدة الخطورة هو أنها تتجاوز التضليل التقليدي. “نحن لا نتعامل هنا مع معلومة يمكن تحليلها أو التشكيك فيها، بل مع إحساس داخلي وتجربة وجدانية يظن الإنسان أنه عاشها”، يوضح السماوي، مشددًا على أن الكذبة حين تتحول إلى ذكرى شخصية تصبح جزءًا من الهوية النفسية للفرد.

ويضيف أن الخطر يتضاعف عند دمج هذه القدرة مع خوارزميات المنصات الاجتماعية، التي تُغذّي المستخدم بالمحتوى المتشابه مع اهتماماته. “حين يُعاد ضخ الصور أو الملخصات المضللة بشكل متكرر، تتحول الإشاعة إلى يقين داخلي يصعب نفيه”، يقول السماوي، مؤكدًا أن هذا الأثر لا يقتصر على الفرد فحسب، بل يمتد إلى مجموعات الأصدقاء والمجتمعات الافتراضية، مما يخلق شعورًا جماعيًا بصدق الزيف.

لماذا نصدق ما لم يحدث؟

بحسب السماوي، الذاكرة البشرية ليست أرشيفًا ساكنًا، بل عملية بناء مستمرة. حين يواجه الدماغ معلومة جديدة مدعومة بصورة أو فيديو، يدمجها تلقائيًا في مخزون الذاكرة، بخاصة إذا ارتبطت بمشاعر قوية أو جاءت من شخص موثوق.

ويشرح أن هناك آليات رئيسية عدة تجعلنا عرضة لتبني ذكريات مزيفة:

*التكرار، الذي يجعل المعلومة مألوفة ويعزز شعورنا بصحتها.

*الارتباط العاطفي، الذي يرسّخ المعلومة في الذاكرة.

*الثقة بالمصدر أو بالمجموعة التي تشارك المحتوى.

صعوبة التمييز بين التخيل والتذكر، وهي ثغرة يستغلها الذكاء الاصطناعي بمهارة.

القانون يلهث خلف التقنية

في ما يتعلق بالتصدي لهذه الظاهرة، يرى أن التشريعات تتحرك ببطء شديد مقارنة بسرعة تطور تقنيات الذكاء الاصطناعي. لكنه يشدد على ضرورة التحرك الفوري، مقترحًا إجراءات مثل فرض الشفافية على الشركات المطوِّرة، منع استخدام هذه التقنيات في فترات الانتخابات، إنشاء أنظمة لتتبع المحتوى المولَّد آليًا، محاسبة الشركات التي تهمل ضوابط الاستخدام، وتبني معايير دولية موحدة.

الخطر في السياق العربي

يُحذّر السماوي من أن البيئة السياسية والإعلامية في العالم العربي هشة أمام هذا النوع من المخاطر. “لدينا انقسامات مجتمعية، غياب للتشريعات، وانتشار واسع للشباب على المنصات الرقمية، وهذا يجعل المنطقة أرضًا خصبة لاستغلال تقنيات الذكاء الاصطناعي في إعادة صوغ الأحداث أو تأجيج النزاعات”، يقول.

ويقترح جملة من الإجراءات الوقائية، بينها: حملات توعية تبدأ من المدارس، دعم الإعلام المهني، إنشاء مراكز تحقق إقليمية، سنّ قوانين تجرّم نشر المحتوى المضلل المولَّد آليًا، إلزام المنصات بوضع علامات تمييز للمحتوى الآلي، وتطوير أدوات محلية لكشف الزيف بسرعة.

بين ما كشفته الأبحاث العلمية والتحذيرات الميدانية، يبدو أننا نقف أمام مرحلة جديدة في صراعنا مع المعلومات المضللة. لم يعد الخطر مجرد “كذبة تنتشر”، بل “ذكرى تُزرع” في أعمق زوايا وعينا، لتتحكم بطريقة تفكيرنا وقراراتنا. وفي عالم يتشكل تاريخه داخل العقول قبل الصفحات، قد تصبح معركة الذاكرة أخطر معارك المستقبل.