«Chat GPT» يساعد المستخدمين على العلاج النفسي أم يزيد الأوضاع سوءًا؟

ألمحت مسؤولة في شركة الذكاء الاصطناعي الأمريكية «Open AI»، التي تقف وراء برنامج الدردشة الآلية الشهير، إلى أن «Chat GPT» يساعد المستخدمين على العلاج النفسي، وهو ما أثار انتقادات كثيرة، بسبب تقليلها من صعوبة علاج الأمراض العقلية.
قد يعجبك.. ChatGPT يستطيع منافسة أفضل المفكريين البشر في الاختبارات الإبداعية
هل العلاج النفسي مجرد محادثة مريحة؟
جدير بالذكر أنه في أواخر سبتمبر، كتبت المسؤولة عن المسائل الأمنية المرتبطة بالذكاء الاصطناعي، على خدمة «إكس» (تويتر سابقاً) ليليان ونغ: «لقد أجريت للتو محادثة شخصية عاطفية جداً مع «Chat GPT» عبر الصوت، حول التوتر والتوازن بين العمل والحياة».
كما تساءلت ونغ: «من المثير للاهتمام أنني شعرت بالاستمتاع والراحة. لم أجرب العلاج من قبل، لكن هل الأمر على هذا النحو على الأرجح؟». وقد سعت ونغ من خلال رسالتها في المقام الأول إلى تسليط الضوء على وظيفة التوليف الصوتي الجديدة (المدفوعة) لروبوت الدردشة الذي طرح قبل عام تقريباً والساعي إلى اعتماد نموذج اقتصادي خاص به.
من جهتها؛ ردت المطورة والناشطة الأمريكية شير سكارليت، بحدةٍ على هذا التصريح، وقالت: إن علم النفس «يرمي إلى تحسين الصحة العقلية، وهو عمل شاق».
فيما أضافت: «أن يرسل المرء مشاعر إيجابية لنفسه أمر جيد، لكن لا علاقة لذلك بالعلاج». لكن هل يمكن للتفاعل مع الذكاء الاصطناعي أن يُنتج التجربة الإيجابية التي وصفتها ليليان ونغ؟.
تأثير الدواء الوهمي
وبحسب دراسة نُشرت قبل أيام، في المجلة العلمية «نيتشر ماشين إنتلجنس» (Nature Machine Intelligence)، يمكن تفسير هذه الظاهرة من خلال تأثير الدواء الوهمي.
ولإثبات ذلك، استطلع باحثون من معهد ماساتشوستس للتكنولوجيا وجامعة أريزونا، آراء 300 مشارك. موضحين للبعض أن روبوت الدردشة لديه تعاطف، ولآخرين أنه كان متلاعباً، في حين قالوا لأفراد مجموعة ثالثة إنه ذو سلوك متوازن.
ونتيجة لذلك، فإن أولئك الذين اعتقدوا أنهم يتحدثون إلى مساعد افتراضي قادر على التعاطف معهم، كانوا أكثر ميلاً إلى اعتبار محدثهم جديراً بالثقة.
بينما قال بات باتارانتابورن، المشارك في إعداد الدراسة: «لقد وجدنا أن الذكاء الاصطناعي ينظر إليه بطريقة ما بحسب تصورات المستخدم المسبقة».
الذكاء الاصطناعي قد يصبح مهووساً بالجنس أو متلاعباً
علاوةً على ذلك؛ ومن دون اتخاذ الكثير من الاحتياطات في مجال لا يزال حساساً، انطلقت شركات ناشئة كثيرة في تطوير تطبيقات. من المفترض أن تقدم شكلاً من أشكال المساعدة في مسائل الصحة العقلية، ما تسبب في نشوء جدالات متنوعة.
في حين، اشتكى مستخدمون لـ«ريبليكا» (Replika)، وهو تطبيق شائع معروف بتقديم منافع للصحة النفسية. وبشكل خاص من أن الذكاء الاصطناعي قد يصبح مهووساً بالجنس أو متلاعباً.
كما أقرت المنظمة الأمريكية غير الحكومية «كوكو»، التي أجرت تجربة في فبراير على 4000 مريض. وقدمت لهم نصائح مكتوبة باستخدام نموذج الذكاء الاصطناعي «GPT-3»، بأن الاستجابات الآلية لم تنجح كعلاج.
حيث كتب المؤسس المشارك للشركة روب موريس، على «إكس» «محاكاة التعاطف تبدو غريبة، ولا معنى لها». كما تعكس هذه الملاحظة نتائج الدراسة السابقة حول تأثير الدواء الوهمي؛ إذ شعر بعض المشاركين وكأنهم «يتحدثون إلى الحائط».
من جهته؛ قال ديفيد شو من جامعة بازل السويسرية، إنه ليس مندهشاً من هذه النتائج السيئة. فيما يشير إلى أنه «يبدو أنه لم يتم إبلاغ أي من المشاركين بغباء روبوتات الدردشة». لكن فكرة المعالج الآلي ليست جديدة. ولهذا فإنه في ستينات القرن الـ20، طور أول برنامج من نوعه لمحاكاة العلاج النفسي، حمل اسم «إليزا». وذلك باستخدام طريقة عالم النفس الأمريكي كارل روجرز.
ومن دون فهم حقيقي لأي شيء عن المشكلات التي طرحت عليه. كان البرنامج يعمد ببساطة إلى توسيع المناقشة بأسئلة قياسية معززة بالكلمات الرئيسية الموجودة في ردود محاوريه.
فيما كتب جوزيف وايزنباوم، مبتكر البرنامج، لاحقاً عن سلف «Chat GPT». هذا «ما لم أدركه هو أن التعرض القصير للغاية لبرنامج كمبيوتر بسيط نسبياً. ويمكن أن يحفز أفكاراً وهمية قوية لدى الأشخاص العاديين تماماً!».
مقالات ذات صلة:
Chat GPT يتصفح الإنترنت ويجري محادثات صوتية
التعليقات مغلقة.