الذكاء الاصطناعي يتصدر الترند… لكن هل يكسب عواطفنا؟

لم تعد الشخصيات الاصطناعية مجرد تجربة تقنية، بل أصبحت اليوم لاعبًا رئيسيًا في صناعة المحتوى الرقمي، تنافس المؤثرين البشريين وتؤثر في خيارات المستهلك وسلوك الجمهور. ومع ذلك، تطرح هذه الظاهرة أسئلة أخلاقية عميقة حول حدود الثقة والشفافية ودور الإنسان في عالم تتحكم فيه الخوارزميات.
تجربة حديثة لـنيويورك بوست في ميدان تايمز سكوير كشفت مدى هذا الالتباس: لم يتمكن أي من المشاركين في اختبار بصري من تحديد الصور الصحيحة لمؤثرين حقيقيين مقابل افتراضيين بشكل كامل. كما أظهرت دراسة لـGetty Images أن 68% من الناس لا يستطيعون التمييز بين الصور الحقيقية وتلك التي ينتجها الذكاء الاصطناعي، ما يعزز المطالبات بضرورة وضع ملصقات واضحة على المحتوى الاصطناعي.
تعبيرية (بلومبرغ)
الثقة بالتحكّم لا بالإلهام
في هذا السياق، وفي مقابلة أجرتها “النهار” مع الخبير في العلاقات الدولية والباحث في التحوّل الرقمي عماد الدين أوبيري، المقيم في الإمارات، الذي قدّم قراءة تحليلية لهذه الظاهرة.
قال أوبيري خلال المقابلة:
“الثقة بالمؤثرين الاصطناعيين لا تعود للكمال الجمالي كما يظن البعض، بل للشعور النفسي بالتحكّم. هذه الشخصيات لا تمرض، لا تتعب، ولا تتورط في فضائح. إنها دائمًا جاهزة وتقدم صورة محسوبة وثابتة، وهو ما يمنح شعورًا بالأمان في عالم أرهقته تقلبات البشر.”
ويضيف مؤكدًا أن هذه الثقة سطحية:
“هي ثقة نفسية وليست إنسانية. المؤثر الاصطناعي قد يبدو مريحًا، لكنه يفتقر للدفء والواقعية التي تبني علاقات حقيقية.”
هيمنة رقمية محدودة التأثير العميق
وعن مستقبل هذه الشخصيات، يرى أوبيري أن تفوقها الرقمي متوقع من حيث الانتشار والكفاءة التشغيلية، خاصة بين الأجيال الشابة المعتادة على محتوى سريع وخفيف عاطفياً:
“ما يغري العلامات التجارية هو هذا التحكم الكامل: لا مواقف سياسية محرجة، لا خلافات شخصية، فقط شخصية قابلة للإدارة البرمجية.”
لكنه يشدد على أن التأثير الحقيقي لا يقاس بالأرقام:
“قد يفوز المؤثر الاصطناعي بلعبة الأرقام، لكنه لن يحتكر لعبة المعنى بسهولة. التأثير العميق مرتبط بالمصداقية والانفعال البشري، وهذه خصائص لا يمكن برمجتها.”
استخدام مسؤول لا بديل عن الإنسان
وحين سُئل عن موقفه من إدارة حملة تسويقية تعتمد على مؤثر افتراضي، أجاب أوبيري بحزم:
“الفعالية وحدها لا تبرر كل قرار. قد أوافق إذا كانت الحملة شفافة وتهدف للتوعية لا التضليل. أما إذا كان الهدف استبدال الإنسان بالكامل أو بناء علاقة زائفة مع المستهلك، فسأرفض ذلك بالتأكيد.”
ويضيف:
“الذكاء الاصطناعي ليس خيرًا ولا شرًا — إنه أداة. نحن من نحمّله بالقيم أو نفرغه منها. الاعتماد عليه فقط لأنه أرخص وأكثر تحكماً يعني التخلي عن المعنى والضمير.”
كيف يتكيف المؤثر البشري؟
ويتوقع أوبيري أن يتضرر المؤثرون البشريون اقتصاديًا، خاصة في مجالات مثل الجمال والموضة التي تعتمد على الصور المثالية. لكنه يرى أن الحل لا يكون بمحاكاة الاصطناعي، بل بالتركيز على ما لا يمكن استنساخه:
“على المؤثر البشري أن يتحول من مجرد صانع محتوى إلى صاحب رسالة ووجهة نظر. المستقبل لن يكون لمن يصرخ أكثر، بل لمن يفهم جمهوره بعمق ويخاطبه بصدق.”
مسؤولية مشتركة تبدأ من الأعلى
أما عن قضية المحتوى المضلل الذي قد ينشره مؤثر اصطناعي، فيؤكد أوبيري أن المسؤولية أخلاقية وقانونية متعددة المستويات:
“يجب أن تبدأ المساءلة بالشركات المبرمجة لهذه الشخصيات، تمامًا كما يُحاسَب الصحفي على مقاله. المنصات مسؤولة أيضًا لأنها تضخم الوصول وتصنع الترند. أما الجمهور فمسؤوليته محدودة، لكنه مدعو لوعي أكبر وشك إيجابي.”
بين الأرقام والمعنى
ويختتم أوبيري رؤيته بجملة حاسمة:
“قد تكسب الشخصيات الاصطناعية إعجابات ومتابعين، لكنها لن تعوّض الصدق الإنساني الذي لا يمكن برمجته.”
وبينما يستمر انتشار هذه الشخصيات بسرعة، يبقى التحدي الأكبر في مستقبل التأثير: هل ستظل الثقة تُبنى على العلاقات الإنسانية الحقيقية أم سنرضى بتأثير مصطنع يخلو من المعنى؟