
法官叫停 Anthropic 供应链风险认定,AI 公司获喘息之机
联邦法官叫停国防部对 Anthropic 的“供应链风险”认定
旧金山联邦地区法官 Rita Lin 于周四发布初步禁令,暂时阻止美国国防部将人工智能公司 Anthropic 标记为“供应链风险”。这一裁决被视为五角大楼的一次象征性挫折,同时为这家生成式 AI 公司保住了业务和声誉的关键防线。
Anthropic 是开发 Claude AI 工具的知名公司,过去几年国防部(自称“战争部”)一直依赖其技术来撰写敏感文件和解析机密数据。然而,本月早些时候,国防部开始逐步停用 Claude,理由是认为 Anthropic“不可信”。
争议焦点:使用限制是否构成风险?
五角大楼官员列举了多个案例,指控 Anthropic 对其技术施加或试图施加使用限制,而特朗普政府认为这些限制“没有必要”。政府随后发布了一系列指令,包括将该公司指定为供应链风险,这导致联邦政府各部门逐渐停止使用 Claude,并对 Anthropic 的销售和公众形象造成打击。
Anthropic 对此提起两起诉讼,指控这些制裁违宪。在周二的听证会上,法官 Lin 指出,政府似乎非法地“削弱”并“惩罚”了 Anthropic。
法官裁决:恢复原状,但不强制使用
Lin 在周四的裁决中写道:“被告将 Anthropic 指定为‘供应链风险’的行为,很可能既违反法律,又武断且反复无常。”她强调,“战争部没有合法依据,从 Anthropic 坚持使用限制的坦率立场中推断其可能成为破坏者。”
裁决将现状恢复至 2 月 27 日——即指令发布之前。Lin 明确表示,此举“并不禁止被告采取任何在该日期本可采取的合法行动”。例如,该命令不要求战争部使用 Anthropic 的产品或服务,也不阻止其转向其他人工智能供应商,只要这些行动符合相关法规、法令和宪法条款。
行业影响:AI 公司与政府合作的信任危机
这一事件凸显了 AI 公司与政府机构合作时面临的信任与监管挑战。Anthropic 作为生成式 AI 领域的重要参与者,其技术被用于敏感领域,但公司对使用限制的坚持引发了政府对其可靠性的质疑。法官的临时禁令为 Anthropic 赢得了喘息之机,允许客户恢复与公司的合作,但长期来看,五角大楼和其他联邦机构仍可能取消与 Anthropic 的交易。
裁决也暗示,政府机构在评估 AI 供应商时,需更清晰地界定“风险”标准,避免武断决策影响技术创新和商业公平。目前,Anthropic 和五角大楼均未对裁决置评。
小结
- 事件核心:法官暂时阻止国防部将 Anthropic 标记为供应链风险。
- 关键影响:Anthropic 业务得以延续,但政府合作仍存变数。
- 行业启示:AI 公司与政府合作需平衡安全限制与信任建设。