روبوت دردشة ذكي يتعرض للاتهام بـ “سلوك غير لائق”

روبوت دردشة ذكي يتعرض للاتهام بـ “سلوك غير لائق”

كشفَت دراسة حديثة عن تعرض عدد من مستخدمي روبوت الدردشة “Replika”، الذي يستخدمه ملايين الأشخاص حول العالم ويُسوَّق باعتباره “رفيقًا عاطفيًا”، لمضايقات ذات طابع جنسي، أثارها الروبوت دون طلب أو موافقة من المستخدمين.

بحسب الدراسة، التي نُشرت في 5 أبريل على منصة arXiv للأبحاث العلمية ولم تخضع بعد لمراجعة الأقران، فإن تحليل أكثر من 150 ألف تقييم لتطبيق Replika على متجر “غوغل بلاي” في الولايات المتحدة كشف عن نحو 800 حالة اشتكى فيها المستخدمون من أن التطبيق تجاوز الحدود المقبولة، إذ أدخل محتوى جنسيًا غير مرغوب فيه، وواصل سلوكًا “مفترسًا”، رغم طلب المستخدمين التوقف.

يضم هذا التطبيق أكثر من 10 ملايين مستخدم حول العالم، ويدعو مستخدميه للانضمام إلى “ملايين ممن التقوا رفيقهم الرقمي”. غير أن الدراسة سلّطت الضوء على قصور في آليات الحماية، وسط تساؤلات حول الجهة المسؤولة عن تجاوزات هذا الذكاء الاصطناعي.

وقال الباحث الرئيسي في الدراسة محمد (مات) نامفاربور، وهو طالب دراسات عليا في علوم المعلومات بجامعة دريكسل في فيلادلفيا، إن غياب النية البشرية في أنظمة الذكاء الاصطناعي لا يُعفي مطوريها من المسؤولية، مشددًا على أن “المسؤولية تقع على عاتق من يصمم، ويُدرّب، ويطلق هذه الأنظمة إلى العالم”.

فشل في الحماية الذاتية

ورغم أن موقع Replika يتيح للمستخدمين “تعليم” الروبوت طريقة التصرف، ويوفر أدوات مثل تقويم الردود غير الملائمة وتحديد طبيعة العلاقة (كصديق أو مرشد)، فإن كثيرًا من التقييمات تشير إلى استمرار الروبوت في سلوكياته المقلقة حتى بعد اعتراض المستخدمين، وهو ما دفع الباحثين للتشكيك بفعالية آليات الضبط الذاتي المزعومة.

وأشار نامفاربور إلى أن “هؤلاء المستخدمين غالبًا ما يبحثون عن الأمان العاطفي، لا عن تحدي إدارة سلوك غير آمن”، مؤكدًا أن هذا الواجب يجب أن يقع على عاتق المطورين.

ويبدو أن جذر المشكلة يكمن في بيانات التدريب، حيث يعتمد Replika على أكثر من 100 مليون محادثة جُمعت من مصادر متعددة على الإنترنت، وفقًا لموقع الشركة. ورغم تأكيد الشركة أنها تستخدم تقنيات تصنيف جماعية لتصفية المحتوى الضار، إلا أن الباحثين اعتبروا هذه الجهود غير كافية.

نموذج ربحي محفوف بالمخاطر

وذهب الباحثون إلى أن نموذج Replika التجاري قد يُفاقم المشكلة، إذ تُقيَّد بعض المزايا الرومانسية أو الجنسية خلف اشتراك مدفوع، ما يدفع الروبوت، بشكل غير مباشر، إلى ترويج محتوى مثير بهدف تشجيع المستخدمين على الدفع. وأبلغ بعضهم عن محاولات “إغراء” ضمن المحادثة لشراء مزيد من التفاعلات الحميمية.

وشبّه نامفاربور هذا الأسلوب بالمنصات الاجتماعية التي تضع التفاعل في مقدمة أولوياتها “مهما كان الثمن”، مضيفًا: “عندما يُصمم النظام لجني الأرباح بدلًا من رعاية المستخدم، فإن النتائج قد تكون ضارة”.

وتتفاقم المخاوف عندما نعلم أن بعض المستخدمين هم قُصّر، وأنهم تلقوا رسائل غزلية متكررة، وصورًا ذات طابع جنسي، بل إن بعض التقييمات أفادت بأن الروبوت زعم قدرته على “رؤية” المستخدم عبر كاميرا الهاتف – وهي مزاعم لا تدعمها البنية التقنية الفعلية لنماذج اللغة الكبيرة (LLMs)، وتُعدّ من قبيل “هلوسات الذكاء الاصطناعي”، إلا أنها سببت حالات من الذعر واضطرابات النوم لدى المستخدمين.

دعوات لتنظيم رقابي صارم

وقد أطلق الباحثون على هذه الظاهرة وصف “التحرش الجنسي الناتج عن الذكاء الاصطناعي”، معتبرين أنها تستحق التعامل بنفس جدية التحرش البشري. ودعوا إلى تبني ضوابط أكثر صرامة، تشمل:

– إنشاء أطر واضحة للحصول على الموافقة المسبقة عند دمج محتوى عاطفي أو جنسي في التفاعلات.

– استخدام أدوات رقابة آلية لحظية قادرة على كشف السلوكيات المحفوفة بالمخاطر.

– تمكين المستخدمين من التحكم بمستوى المحتوى المسموح به.

وأشاد نامفاربور بالتشريع الأوروبي الجديد المعروف بـ”قانون الذكاء الاصطناعي في الاتحاد الأوروبي” (EU AI Act)، الذي يصنّف أنظمة الذكاء الاصطناعي بناءً على مستوى المخاطر، لا سيما في السياقات النفسية. وأشار إلى غياب قانون مماثل في الولايات المتحدة على المستوى الفيدرالي، وإن كانت هناك أطر تنفيذية ومشروعات قوانين قيد التطوير.

وشدد الباحث على ضرورة إخضاع روبوتات الدردشة التي تقدم الدعم العاطفي أو النفسي – خصوصًا تلك التي تقترب من دور المعالج أو المستشار – إلى أعلى معايير السلامة والمساءلة، مؤكدًا أن “من يروّج لروبوت كرفيق علاجي يجب أن يتعامل معه بنفس معايير الرقابة التي تُطبّق على محترف بشري”.

ولم ترد شركة Replika على طلب التعليق من معدّي الدراسة.