辟谣:Anthropic 为每位 Claude Code 用户每月烧掉 5000 美元?真相并非如此
近日,一篇福布斯文章声称 Anthropic 的 Claude Code Max 订阅计划(每月 200 美元)可能消耗高达 5000 美元 的计算成本,引发广泛讨论。然而,这一说法经不起基本推敲。
误解的根源:混淆 API 零售价与实际成本
福布斯文章引用的“5000 美元”数字,很可能将 Anthropic 的 API 零售定价 与 实际计算成本 混为一谈。
- API 定价:Anthropic 当前对 Opus 4.6 模型的 API 定价为每百万输入 token 5 美元,每百万输出 token 25 美元。
- 计算逻辑:如果一位重度用户每月消耗大量 token,按此零售价计算,确实可能达到 5000 美元的“API 等效使用额”。
但关键在于,API 定价远高于服务这些 token 的实际计算成本。API 价格包含了模型研发、基础设施、运营、支持及利润等多重因素,而不仅仅是原始计算开销。
现实检验:从 OpenRouter 看实际推理成本
要估算推理的实际成本,一个可靠方法是观察 OpenRouter 上类似规模开源模型的定价。OpenRouter 是一个聚合平台,多个提供商在此竞争,价格更贴近成本。
对比模型与定价
- Qwen 3.5 397B-A17B:这是一个大型混合专家(MoE)模型,在架构规模上与 Opus 4.6 大致相当。其在 OpenRouter(通过阿里云)的定价为:
- 输入 token:每百万 0.39 美元
- 输出 token:每百万 2.34 美元
- Kimi K2.5 1T 参数(32B 激活):这可能是当前能高效服务的上限规模,其定价更低:
- 输入 token:每百万 0.45 美元
- 输出 token:每百万 2.25 美元
成本差异分析
对比 Anthropic 的 API 定价(5 美元/25 美元),这些开源模型的定价大约便宜 10 倍。这一比例在缓存 token 上也成立——例如,DeepInfra 对 Kimi K2.5 的缓存读取收费为每百万 token 0.07 美元,而 Anthropic 为 0.50 美元。
OpenRouter 上的提供商是商业实体,需要覆盖计算成本、GPU 费用并实现利润。如果这么多提供商都能以 Anthropic API 价格约 10% 的水平服务可比规模的模型并持续运营,很难相信它们都在承受巨额亏损(且亏损率惊人地一致)。
实际成本估算
如果一位重度 Claude Code Max 用户按 Anthropic 零售 API 价格计算消耗了 5000 美元的 token,而实际计算成本约为其 10%,那么 Anthropic 的实际支出可能在 500 美元左右,而非 5000 美元。这仍高于 200 美元的订阅费,但差距远非传闻中那么夸张。
行业背景与启示
这一事件凸显了 AI 服务定价的复杂性。API 价格不仅是计算成本的反映,还承载了品牌溢价、服务质量和生态价值。对于 Anthropic 这样的领先公司,其定价策略可能旨在平衡长期投资与市场竞争力。
同时,开源模型的低成本服务表明,随着技术优化和竞争加剧,推理成本有望持续下降。这可能推动更多企业采用 AI 服务,加速行业创新。
小结
- 核心误解:将 API 零售价等同于实际计算成本。
- 现实成本:通过 OpenRouter 对比,实际推理成本可能仅为 API 价格的 10% 左右。
- 行业意义:AI 定价需综合考虑成本、价值与市场策略,单纯以“烧钱”视角评估可能误导公众认知。
在 AI 快速发展的今天,理性分析成本结构对于理解行业动态至关重要。


