SheepNav
精选5天前0 投票

五角大楼对Anthropic的文化战争策略适得其反

一场本可避免的AI合同纠纷

上周四,加州法官丽塔·林(Rita Lin)发布临时禁令,阻止五角大楼将Anthropic标记为供应链风险,并禁止政府机构停止使用其AI。这是这场持续一个多月的纷争的最新进展。但事情远未结束:政府有七天时间上诉,而Anthropic针对这一标记的第二起诉讼尚未裁决。在此期间,该公司在政府眼中仍是“不受欢迎的人”。

从合同争议到公开对峙

根据法庭文件,政府在2025年的大部分时间里都在使用Anthropic的Claude模型,且未提出投诉。Anthropic作为一家以安全为核心的AI公司,同时赢得了国防合同,在品牌定位上走钢丝。国防部员工通过Palantir访问Claude时,必须接受一份政府专用使用政策的条款。Anthropic联合创始人贾里德·卡普兰(Jared Kaplan)向法庭声明,该政策“禁止对美国公民进行大规模监控和致命性自主战争”。

矛盾始于政府试图与Anthropic直接签订合同。当分歧公开化时,问题已不仅仅是切断联系,而是演变成了惩罚。法官丽塔·林在长达43页的意见书中指出,这本质上是一场合同纠纷,本不必闹得如此沸沸扬扬。政府忽视了现有的争议解决流程,并通过官员的社交媒体帖子火上浇油,这些帖子最终与法庭上的立场相矛盾。

“先发推,后找律师”的模式

引发法官不满的是,政府处理此事的方式带有明显的“文化战争”色彩。2月27日,特朗普总统在Truth Social上发帖,提及Anthropic的“左翼疯子”,并指示所有联邦机构停止使用该公司的AI。国防部长皮特·赫格塞斯(Pete Hegseth)随即呼应,表示将指示五角大楼将Anthropic标记为供应链风险。这一标记要求部长采取一系列具体行动。

这种“先发推,后找律师”的模式,将商业分歧政治化,不仅加剧了紧张局势,也可能损害政府在AI监管方面的公信力。此案的核心在于:政府能在多大程度上因公司“不配合”而施加惩罚?

AI安全与国防应用的平衡难题

Anthropic的处境凸显了AI公司在国家安全与商业伦理之间的艰难平衡。作为以“AI安全”为立身之本的明星初创公司,其参与国防项目本身就存在品牌风险。而政府一方面依赖其技术,另一方面又因政治或合同分歧采取强硬手段,反映了AI供应链在国家安全框架下的脆弱性。

此案也吸引了不同政治阵营的支持者,包括特朗普前AI政策撰稿人等,显示出AI治理已超越党派,成为战略议题。

未完的博弈与行业影响

目前,临时禁令只是按下暂停键。政府是否上诉、第二起诉讼结果如何,都将决定Anthropic与联邦机构关系的未来。无论结局如何,此案已给AI行业敲响警钟:

  • 政治风险:AI公司的技术可能因政治风向变化而突然被“污名化”。
  • 合同明确性:政府与科技公司的合作需更清晰的条款,避免模糊地带引发冲突。
  • 公众沟通:官员通过社交媒体发表政策倾向性言论,可能干扰正常的法律与商业流程。

在AI加速融入国防与公共部门的背景下,如何建立既保障国家安全又尊重商业规则与伦理的框架,仍是待解难题。这场“文化战争”的副作用,或许是推动各方回归理性对话的契机。

延伸阅读

  1. Donut Browser:开源反检测浏览器,支持无限用户配置文件
  2. Klick AI 相机助手:实时 AI 相机,现场指导构图
  3. Vista:macOS 本该内置的图片查看器
查看原文