هل يمكن لـ"شات جي بي تي" أن يساعد في العلاج النفسي؟

هل "شات جي بي تي" عالم نفس جيد؟ هذا ما ألمحت إليه مسؤولة في شركة الذكاء الاصطناعي الأمريكية "أوبن إيه آي" التي تقف وراء برنامج الدردشة الآلية، ما أثار انتقادات كثيرة بسبب تقليلها من صعوبة علاج الأمراض العقلية.

 
وكتبت ليليان ونغ، المسؤولة عن المسائل الأمنية في الذكاء الاصطناعي، في أواخر سبتمبر (أيلول) على خدمة إكس "أجريتُ للتو محادثة شخصية عاطفية جداً مع شات جي بي تي عبر الصوت، حول التوتر والتوازن بين العمل والحياة".
وتساءلت "من المثير للاهتمام أني شعرت بالاستماع والراحة. لم أجرب العلاج من قبل، لكن هل الأمر على هذا النحو على الأرجح؟".
وسعت ونغ من خلال رسالتها في المقام الأول إلى تسليط الضوء على وظيفة التوليف الصوتي الجديدة المدفوعة لروبوت الدردشة الذي طُرح قبل عام تقريباً والساعي إلى اعتماد نموذج اقتصادي.

لكن المطورة والناشطة الأمريكية شير سكارليت ردت بحدة على التصريح، قائلة إن علم النفس "يرمي إلى تحسين الصحة العقلية، وهو عمل شاق". وأضافت "أن يرسل المرء مشاعر إيجابية لنفسه أمر جيد، لكن لا علاقة لذلك بالعلاج".
ولكن هل يمكن للتفاعل مع الذكاء الاصطناعي أن يُنتج التجربة الإيجابية التي وصفتها ليليان ونغ؟
حسب دراسة نُشرت منذ أيام في المجلة العلمية "نيتشر ماشين إنتلجنس"، يمكن تفسير هذه الظاهرة بتأثير الدواء الوهمي.
ولإثبات ذلك، استطلع باحثون من معهد ماساتشوستس للتكنولوجيا، وجامعة أريزونا، آراء 300 مشارك، موضحين للبعض أن روبوت الدردشة متعاطف، ولآخرين أنه متلاعب، فيما قالوا لمجموعة ثالثة إنه ذو سلوك متوازن.
ونتيجة لذلك، فإن الذين اعتقدوا أنهم يتحدثون إلى مساعد افتراضي قادر على التعاطف معهم كانوا أكثر ميلاً إلى اعتبار محدّثهم جديراً بالثقة.
وقال بات باتارانتابورن، المشارك في إعداد الدراسة: "وجدنا أن الذكاء الاصطناعي يُنظر إليه بطريقة ما بحسب تصورات المستخدم المسبقة".


غباء الروبوتات

ودون اتخاذ الكثير من الاحتياطات في مجال لا يزال حساساً، انطلقت شركات ناشئة كثيرة في تطوير تطبيقات يفترض أن تقدم شكلاً من أشكال المساعدة في الصحة العقلية، ما تسبب في جدالات متنوعة.
واشتكى مستخدمون لـ"ريبليكا" التطبيق المعروف بتقديم منافع على الصحة النفسية، بشكل خاص من أن الذكاء الاصطناعي قد يصبح مهووساً بالجنس أو متلاعباً.
كما أقرت المنظمة الأمريكية غير الحكومية "كوكو"، التي أجرت تجربة في فبراير (شباط) على 4000 مريض قدمت لهم نصائح مكتوبة باستخدام نموذج الذكاء الاصطناعي "جي بي تي-3"، بأن الاستجابات الآلية لم تنجح في العلاج.

وكتب المؤسس المشارك للشركة روب موريس على إكس "محاكاة التعاطف تبدو غريبة، ولا معنى لها". وتعكس هذه الملاحظة نتائج الدراسة السابقة عن تأثير الدواء الوهمي، حيث شعر بعض المشاركين أنهم "يتحدثون إلى الحائط".
ورداً على سؤال قال ديفيد شو من جامعة بازل السويسرية، إنه ليس مندهشاً من هذه النتائج السيئة، وقال: "يبدو أنه لم يبلغ أي من المشاركين بغباء روبوتات الدردشة".
لكن فكرة المعالج الآلي ليست جديدة. ففي ستينيات القرن العشرين، طُوّر أول برنامج من نوعه لمحاكاة العلاج النفسي، باسم "إليزا"، باستخدام طريقة عالم النفس الأمريكي كارل روجرز.
ودون فهم حقيقي للمشاكل التي طُرحت عليه، كان البرنامج يعمد ببساطة إلى توسيع المناقشة بأسئلة قياسية معززة بالكلمات الرئيسية من ردود محاوريه.
وكتب جوزيف وايزنباوم، مبتكر البرنامج، لاحقاً عن سلف "شات جي بي تي" هذا "ما لم أدركه هو أن التعرض القصير للغاية لبرنامج كمبيوتر بسيط نسبياً يمكن أن يحفز أفكاراً وهمية قوية لدى العاديين تماماً".