摘要:人工智能,特别是在理解心智理论(ToM)方面,或许已经达到甚至超越了人类水平。在这项新的研究中,AI在追踪人类心理状态方面的表现,在特定情况下已经接近或超过了人类,对人工智能和人类心理推理能力的比较具有重要意义。
最近的研究进展表明,人工智能(AI)可能已经具备了人类特有的心理理解能力。在某些方面,如理解误导信息或识别何时失礼,AI如GPT系列及其竞争对手Llama 2的表现在某些方面已经和人类相当。
探究心智理论(ToM)
心智理论是指个体能够理解自身和周围人类的心理状态,包括情绪、信仰、意图等。虽然自闭症个体往往缺乏这种能力,但除人类外,诸如黑猩猩,还有大象、海豚等动物也被推测可能具备先天简单的心智理论技能。
人工智能领域的新发现
特别值得注意的是,近期如ChatGPT之类的大型语言模型(LLMs)的快速发展激发了一系列讨论,焦点在于这些模型在处理心智理论任务时,是否能够像人类一样表现。
德国汉堡-埃彭多夫大学医学中心的试验
该大学的研究团队在最新的科研项目中,针对相关AI在不同心智理论任务上的表现进行了反复测试,与1907名人类的对比成绩引人注目。
GPT模型在间接请求识别、错误想法辨识以及误导识别等领域表现出色,有些情况下甚至超越了人类平均水平。相较之下,Llama 2的性能尚未达到人类的平均水准。
研究还发现,在识别不当行为的时候,Llama 2的表现比人类更为突出。研究团队进一步分析认为,这可能是由于Llama 2回答时候的偏见相对较少,针对坚持结论的保守态度较低。
深入研究的必要性
研究团队进一步深入探讨了GPT模型的表现,认为其在理解不当言论任务上的表现超出了人类水平,更偏向于“选择最可能的解释”的保守假设而非推理能力的不足。因此,研究团队建议未来对于AI在实时人机交互中的表现以及这些模型决策行为对人类社会认知的影响进行进一步研究。
研究指出,尽管LLMs在心智理论任务上的表现与人类相匹敌,这并不意味着它们拥有人类的意识和理解力。然而,这些发现成为未来研究的重要基础,尤其是在人工智能如何更好地融入人类社会的这一议题上具有指导性。
结论
总结此次研究发现,GPT和Llama 2在挑战性的心智理论任务上接近甚至超越了人类的表现。这项研究的实践意义在于进一步强调了系统测试的重要性,以及在人类智能与人工智能之间进行更加深入和全面比较的必要性。进一步的探索将展开,旨在提高AI与人类协作时的效率和效果。
相关链接
研究论文可以通过以下链接访问:Testing theory of mind in large language models and humans
请注意,本文内容是经过重新诠释和加工提供给大家的,文中的视觉内容来自于网络搜索结果,不代表我们的观点和立场。