如今,人们的信息处理方式正被AI重构。例如,chatgpt推出新功能后,决策流程发生改变,人们先提出问题,AI给出建议,再确认方向推进。这使得不少人倾向于先看AI输出内容再二次加工。然而,这种现象引发了对“认知外包”依赖的思考。
认知外包带来便利也藏隐患。AI产品底层逻辑多是“降低认知负担”,像一键总结、智能推荐等功能虽提升效率,却让人们放弃主动筛选和判断。以作者为例,使用NotionAI后,注意力变得散漫,思维动力减弱,习惯将内容丢给AI处理,成为“等待答案”的人。研究指出,对AI工具信任度提升,人们减少信息深入加工,面对复杂问题自主分析信心下降,独立推理也会出现困难。此外,公司将AI嵌入工作流程,虽提升效率,但也弱化了批判性思维能力。如学生用AI做学术分析,老师只能用AI检查论文。在“认知外包”中,人们需思考何时用AI帮忙,何时坚持人的判断。
AI依赖或导致判断力退化。当思考认知外包是否会固化和反噬时,作者向豆包、夸克、DeepSeek提问。DeepSeek称Google研究表明常使用AI的人大脑前额叶活跃度下降、海马体体积缩小,还提到加州大学研究发现AI快速给答案会使人上瘾。但作者查证发现这些研究并无出处。频繁使用AI,人们习惯其答案,减少怀疑、验证和独立思考,如同开车依赖导航、使用计算器后心算能力退化。认知外包虽不能确定是否造成行为固化,但深度思考能力正被削弱。
AI难替代记忆和经验。AI可成为“记忆外挂”,帮人们记住各种信息,但理解需建立在记住基本内容上,若依赖AI提醒基础概念,“复杂推演”只是调用模型结果,人们会丢掉理解世界的基本支点。同时,经验正变成“压缩胶囊”,人们习惯将经验存进AI,遇到问题让其生成解决方案。但需要手感、直觉和真实经历的经验,AI无法替代,如医生看病、设计师改稿。真正厉害的人是能将“手感”和“AI工具箱”结合的人。
呼唤慢思考与明确工具理性边界。在效率优先时代,人们应找回“慢思考”,思考工具理性的边界。虽整个系统都追求快,但慢思考能对抗多巴胺驱动的认知惯性,给自己留“怀疑的空间”。慢思考是AI给不了的元能力,如大学老师要求学生给出不一样的思考。欧盟《人机共生宣言》指出AI无权替人类回答为什么,人们在与技术共处中要找到自己的角色位置,未来或许要成为个人AI助理的守护者,守住自己的判断权。