如今,人们处理信息的方式正被AI重构,认知外包现象愈发普遍。先看AI输出内容再加工,已成为很多人的习惯。以chatgpt推出新功能为例,决策流程从人自主判断执行,转变为先提问题,由AI给建议再推进。
许多AI产品以“降低认知负担”为底层逻辑,如一键总结、自动归类等,虽提升效率,却使人放弃主动筛选和判断。作者以自身使用NotionAI的经历为例,说明过度依赖AI会导致注意力分散、思考动力减弱,让人成为“等待答案”的人。研究也指出,对AI信任度提升,会使人们减少对信息的深入加工,面对复杂问题时,自主分析信心下降,独立推理出现困难。
公司也在工作流程中嵌入AI,如AI客服、用AI做PPT,这在提升效率的同时,悄然弱化了人们的批判性思维能力。学术领域同样如此,学生用AI做学术分析,老师用AI检查论文,看似加速进程,实则让一切更混乱。
关于认知外包,其边界正被侵蚀。有人将问题抛给豆包、夸克、DeepSeek等AI寻求答案,但部分AI给出的所谓“研究结果”并无依据。这反映出人们若不质疑AI内容,易被误导,从而减少独立思考。
当AI成为“记忆外挂”,人们不再需要精细记忆,却忽视了理解需建立在记住基本内容的基础上。若依赖AI提醒基本概念,所谓“复杂推演”也只是调用模型结果,人们会在不知不觉中丢掉理解世界的基本支点。
经验积累也受到影响。过去经验靠长期积累沉淀为判断力和方法论,现在人们习惯将经验存入AI,遇到问题让AI生成解决方案。然而,有些经验需靠手感、直觉和试错打磨,这是AI无法替代的。真正厉害的人,是能将“手感”和“AI工具箱”结合起来的人。
在效率优先的时代,应找回“慢思考模式”。快节奏使人们易被AI“喂答案”,产生依赖,而慢思考能让人保留“怀疑的空间”。慢思考是一种AI给不了的元能力,每个人应找到破局点,进行过程性思考。
《人机共生宣言》提出,AI无权替人类回答为什么,终极边界法则是AI处理what和how,why由人决定。在与技术共处中,人们要找到自己的角色位置,意识到判断权的重要性,带着自主性和创造力使用技术,避免被同化。