在心理治疗领域,一项研究引发关注。研究人员借助经典的图灵测试,针对chatgpt与人类治疗师的治疗反应展开探讨。此次研究邀请830名参与者,让他们判断18对夫妻治疗案例中的反应究竟源自ChatGPT还是经验丰富的人类治疗师。

发表于《PLOS心理健康》的研究结果显示,参与者在识别治疗反应时,表现仅略高于随机猜测。人类治疗师反应的正确识别率为56.1%,ChatGPT的为51.2%。值得注意的是,ChatGPT在治疗质量的多个维度上,如治疗联盟、同理心和文化适应性,表现超越人类专家。
ChatGPT能有如此表现,原因诸多。AI系统回复通常更长,语气更积极,使用更多名词和形容词,这让其反应显得更详细且富有同理心。但研究也发现,当受试者认为是AI生成的反应时,评分较低;而误认AI回答来自人类治疗师时,评分更高。
研究者表示,尽管该研究成果令人振奋,但存在局限。研究采用的是简短假设性治疗场景,并非真实治疗过程,且对结果是否适用于个体咨询存疑。
随着AI在治疗领域潜力的证据不断积累,研究人员强调,心理健康专业人士有必要了解这些系统。临床工作者需谨慎训练和监控AI模型,保障护理高标准。
目前多项研究对AI在咨询角色中的能力得出相似结论。墨尔本大学和西澳大学研究显示,ChatGPT在社交困境中的建议比人类专栏作家更具平衡性、全面性和同理心。然而,即便AI表现出色,大多数参与者仍倾向选择人类顾问,澳大利亚研究中有77%受访者愿接受人类建议。斯坦福大学和德克萨斯大学研究者提醒,在心理治疗中使用ChatGPT要谨慎,因其缺乏真正的“心智理论”,无法拥有真正同理心,同时呼吁建立国际研究项目,制定AI在心理学中安全整合的指导方针。
© 版权声明
文章版权归作者所有,未经允许请勿转载。