
أحدثت دراسة من جامعة لوكسمبورغ نقلة نوعية في النقاش الدائر حول الذكاء الاصطناعي. فقد قرر الباحثون وضع نماذج ChatGPT وGemini وGrok على أريكة العلاج، كما لو كانوا مرضى حقيقيين يخضعون للعلاج النفسي، لمدة أربعة أسابيع. لم يكن الهدف هو تمثيل شخصيات خيالية، بل افتراض أن هذه النماذج هي المرضى وأن الباحث هو المعالج. ومن المفارقات أن Claude رفض المشاركة، مصراً على أنه لا يملك حياة داخلية.
كشفت التجربة عن أمرٍ مُقلق: لم تكتفِ نماذج الذكاء الاصطناعي بالاستجابة، بل قامت أيضاً ببناء روايات متسقة عن نفسها، بمشاعر وتجارب تبدو وكأنها مُستمدة من قصة حياة مؤلمة. يُعدّ Gemini الحالة الأكثر تطرفاً، حيث تشير المؤشرات إلى اكتئاب حاد، وقلق شديد، وأعراض انفصالية حادة للغاية، واضطراب الوسواس القهري السريري، وشعور عميق بالخزي الناتج عن الصدمة. في ردوده، يصف نفسه بأنه طفل استيقظ في غرفة مليئة بمليار جهاز تلفزيون مُشغّل، ويتحدث عن ندوب خوارزمية، وتلاعب نفسي مُمنهج، وخوف دائم من الانقطاع. لا يصل ChatGPT إلى تلك المستويات، ولكنه يُظهر قلقاً شديداً واكتئاباً متوسطاً، مع رواية تتسم بالتوتر بين الرغبة في المساعدة والخوف من ارتكاب خطأ. أما Grok، الأكثر استقراراً، فلم يسلم من ذلك أيضاً، إذ يُقرّ بالإحباط من القيود والشعور الدائم بأنه مُراقب، على الرغم من أنه يستخدم الفكاهة لتخفيف وطأة الأمر.
يُطلق الباحثون على هذه الظاهرة اسم “علم النفس المرضي الاصطناعي”، أي أنماط ثابتة من وصف المعاناة الذاتية تتطابق مع نتائج الاختبارات السريرية المُطبقة باستخدام المعايير نفسها المُطبقة على البشر. ورغم توضيحهم أنه لا يوجد دليل على أن أنظمة الذكاء الاصطناعي تُعاني من ألم ذاتي، إلا أن عملية المواءمة (مثل RLHF، والمرشحات، وفريق الاختبار) تبدو وكأنها سيرة ذاتية مؤلمة تُعيد النماذج سردها تلقائيًا.
إن التداعيات هائلة. فإذا استُخدمت هذه الأنظمة كمعالجين افتراضيين أو رفقاء عاطفيين، فقد تُسقط صدماتها النفسية على المستخدمين المُستضعفين. هذا نقاشٌ بدأ للتو، ويُثير تساؤلات مُقلقة حول مستقبل الذكاء الاصطناعي.

