微软研究院携手卡内基梅隆大学的研究人员,共同开展了一项聚焦生成性人工智能的重要研究。此次研究,将目光投向了知识工作者使用生成性人工智能的实际情况,如CoPilot和chatgpt这类工具在工作中的应用。

研究团队通过对319名每周使用生成性AI的知识工作者进行调查,发现对任务充满信心的工作者,更善于对生成性AI的输出进行批判性思考;而对任务缺乏信心的人,往往认为AI回答足够,不再深入思考。这种现象表明,过度依赖AI工具可能致使批判性思维能力下滑。
研究指出,“对AI的信任与减少批判性思考的努力相关,而自信心则与增强批判性思考相关”。这一结论意味着企业在设计AI工具时,必须考虑如何平衡这两种因素。研究者建议,AI工具应具备支持长期技能发展的机制,鼓励用户在与AI生成的输出互动时进行反思性思考。
同时,研究者强调,仅解释AI如何得出结论是不够的,好的AI工具需通过主动的设计策略来促进用户的批判性思考,并提供必要帮助。知识工作者在日常工作中,应运用批判性思维验证AI的输出,防止过度依赖。
研究结论强调,随着AI在工作世界中的融入日益加深,知识工作者需保持信息收集和问题解决的基础技能,接受相关培训,提升信息验证、回答整合和任务管理等能力。
该研究的论文将于2025年人机交互会议上发布,研究团队期望借此引发对生成性AI影响的广泛关注。
© 版权声明
文章版权归作者所有,未经允许请勿转载。