
研究发现:“认知投降”导致AI用户放弃逻辑思考
宾夕法尼亚大学的研究人员最近发表论文《思考——快速、缓慢与人工:AI如何重塑人类推理与认知投降的兴起》,为AI用户行为提出了一个全新的心理学框架。研究发现,当面对大型语言模型(LLM)时,大量用户会陷入一种被称为“认知投降”的状态——他们几乎不进行内部思考,就全盘接受AI看似权威的答案,即使这些答案存在明显缺陷。
从“认知卸载”到“认知投降”
过去,人们使用计算器、GPS等工具时,进行的是任务特定的“认知卸载”。这是一种策略性的委托:将部分工作交给可靠的自动化算法,同时运用自己的内部推理来监督和评估结果。然而,研究人员指出,以LLM为代表的AI系统催生了一种性质截然不同的行为模式——“认知投降”。
在这种模式下,用户提供的是“最低限度的内部参与”,他们放弃了对AI推理过程的监督与验证,不加批判地全盘接受其输出。论文强调,这种“对推理本身不加批判的放弃”在LLM的输出**“流畅、自信或几乎没有摩擦”** 时尤为常见。AI回答的权威感外观,压制了用户的批判性思维本能。
实验揭示的普遍性与影响因素
为了衡量这种“认知投降”现象的普遍性及其影响,研究人员基于认知反射测试 设计并开展了一系列实验。初步结果表明,绝大多数实验参与者会不加批判地接受AI提供的“有缺陷”的答案。这证实了“认知投降”并非个别现象,而是在AI交互中广泛存在的行为倾向。
研究还探讨了人们何时以及为何愿意将批判性思维外包给AI。初步分析指出,时间压力和外部激励等因素会显著影响这一决策。当处于紧迫时限下或有明确奖励驱动时,用户更倾向于跳过验证步骤,直接采纳AI的结论,从而加剧“认知投降”的发生。
重塑人类决策的“第三系统”
论文的理论基础建立在现有的决策双系统模型上:
- 系统1:快速、直觉、情感驱动的处理。
- 系统2:缓慢、审慎、分析性的推理。
研究人员认为,AI系统的出现,创造了一个全新的、第三类决策驱动源——“人工认知”。这里的决策由“源自算法系统而非人脑的外部、自动化、数据驱动的推理”所驱动。当用户陷入“认知投降”,他们实质上是用这个“人工系统”替代了自身的系统2,放弃了分析监督的角色。
对AI应用与教育的启示
这项研究超越了简单的“AI会犯错”的警告,深入到了人机交互的心理层面。它揭示了一个严峻的现实:AI的强大能力与其输出的“权威感”包装,可能正在潜移默化地削弱用户本应保有的批判性思维和事实核查习惯。
这对于AI开发者、教育工作者和普通用户都具有重要启示:
- 对开发者而言:需要在产品设计中融入更多促进用户思考、提示不确定性、以及鼓励验证的机制,而不能一味追求回答的流畅与自信。
- 对教育而言:亟需加强数字素养与批判性思维教育,教导人们如何与AI协作而非盲从,将其视为需要监督的“强大但有时会出错的工具”。
- 对用户而言:需要意识到“认知投降”的风险,有意识地保持对AI输出的审视态度,尤其是在重要决策或专业领域咨询时。
小结
“认知投降”概念的提出,为理解AI时代的人类行为提供了一个关键透镜。它提醒我们,技术的便利不应以牺牲人类的理性判断为代价。未来的挑战不仅在于让AI变得更准确,更在于如何设计人机协作的范式,培养能够善用AI而非被其“说服”的智能用户。在拥抱“人工认知”力量的同时,守护并锻炼我们自身的“系统2”,或许才是这个时代最重要的认知课题。