精选今天0 投票
休谟因果判断的表征条件:贝叶斯形式化忽略了什么
从哲学到AI:休谟因果理论的现代启示
一篇题为《休谟因果判断的表征条件:贝叶斯形式化忽略了什么》的论文(arXiv:2604.03387)重新审视了18世纪哲学家大卫·休谟的因果理论,并揭示了这一理论对当代人工智能,特别是大型语言模型发展的深刻启示。该研究由Yiling Wu于2026年4月提交,属于计算机科学-人工智能领域,探讨了休谟理论中三个关键的表征条件如何被后续的形式化框架所忽略。
休谟的三个表征条件
论文从休谟的文本中提炼出因果判断所依赖的三个核心表征条件:
- 经验基础:所有观念必须能够追溯到感官印象,即知识源于直接经验。
- 结构化检索:联想不是简单的成对连接,而是在有组织的网络中运作,涉及复杂的认知结构。
- 生动性转移:推理不仅更新概率,还必须产生一种“感觉到的确信”,即主观的信念强度。
这些条件构成了休谟因果心理学的核心,强调因果判断不仅是逻辑过程,还涉及感知、记忆和情感等认知维度。
形式化轨迹:从休谟到贝叶斯
论文追溯了从休谟到贝叶斯认识论和预测处理理论的形式化发展轨迹。研究发现,后来的框架(如贝叶斯推理)主要保留了休谟关于“更新结构”的洞察——即根据新证据调整信念——但抽象掉了上述三个表征条件。
- 贝叶斯方法专注于概率更新,将信念视为可量化的后验概率,却忽略了经验来源的追溯、联想网络的结构化特性以及推理带来的主观确信感。
- 预测处理理论虽然更接近认知过程,但仍侧重于预测误差最小化,未能完全整合休谟的表征复杂性。
大型语言模型:一个当代案例
论文将大型语言模型作为说明性案例。这些模型通过海量文本数据训练,展现出强大的统计学习能力,能够根据上下文生成连贯文本或进行推理。然而,它们恰恰凸显了休谟条件被忽略的现实:
- 缺乏经验基础:LLMs的“知识”源于文本模式,而非直接的感官印象,可能导致“幻觉”或脱离现实的理解。
- 简化检索机制:尽管基于Transformer架构的注意力机制能捕捉复杂关联,但其运作方式可能不同于人类的结构化联想网络,更偏向于统计相关性而非因果结构。
- 无生动性转移:模型输出是概率分布下的最可能结果,不涉及任何主观信念或“确信感”,其“判断”是纯粹计算性的。
这使休谟框架中原本作为背景假设的“要求”变得可见:真正的因果理解可能需要超越纯统计模式,融入更丰富的认知表征。
对AI发展的启示
这项研究不仅是一次哲学与AI的跨学科对话,更对人工智能的未来方向提出了关键问题:
- 因果推理的深化:当前AI(尤其是LLMs)在因果推断上仍有局限,休谟的条件提示我们,需要开发能更好整合经验基础、结构化知识和信念形成的模型。
- 认知架构的借鉴:构建更“人类化”的AI可能需要参考休谟的心理学洞察,例如如何模拟从感知到概念的过渡,或如何实现带有确信感的推理。
- 形式化的边界:贝叶斯等数学形式化虽强大,但可能抽象掉了认知中不可或缺的要素。在追求可计算性的同时,需警惕过度简化带来的理解鸿沟。
小结
休谟的因果理论在数百年后,通过这篇论文与人工智能前沿产生了共鸣。它提醒我们,在利用贝叶斯方法和大语言模型推进AI时,不应忘记人类认知中那些微妙而根本的层面——经验、结构和确信。未来,融合哲学智慧与计算技术,或许能催生出更深刻、更稳健的人工智能系统。