2025年2月12日,俄亥俄州立大学的H. Dorian Hatch团队在《PLOS心理健康》期刊发表研究,chatgpt在心理治疗回应方面表现突出,其生成的回应通常被评定得更高,这一现象引发广泛关注,特别是在生成性人工智能优势渐显的当下。

图源备注:图片由AI生成,图片授权服务商Midjourney
研究团队对800多名参与者开展测试,展示18个情侣治疗的情景模拟。结果显示,参与者虽能察觉到语言模式差异,却几乎难以分辨回应是出自ChatGPT还是心理治疗师之手,这与艾伦・图灵的预测相符。更惊人的是,ChatGPT的回应在心理治疗核心指导原则上得分更高。
深入剖析可知,ChatGPT生成的回应往往比治疗师的更长。即便控制了回应长度,它使用的名词和形容词也更多。名词用于描述人、地点和事物,形容词提供更多背景信息,这或许意味着ChatGPT能为患者提供更丰富的上下文,从而让参与者在对心理治疗共同因素的评分中,给予其更高评价。
研究者表示,这些结果暗示ChatGPT在改善心理治疗过程方面颇具潜力,未来研究或推动不同心理治疗干预方法的开发。鉴于生成性人工智能在治疗环境中的潜在应用日益凸显,作者呼吁心理健康专家提升技术素养,确保AI模型的训练和监督由专业人士负责,以提高心理健康服务的质量与可及性。
研究团队总结称,自近60年前ELIZA问世,研究人员就一直在探讨AI能否充当心理治疗师。尽管诸多重要问题待解,但此次发现表明答案可能是“可以”,希望该研究能促使公众和心理从业者思考AI与心理健康治疗整合的伦理、可行性与实用性。
© 版权声明
文章版权归作者所有,未经允许请勿转载。