新上线1个月前0 投票
五角大楼正式将Anthropic列为供应链风险,AI伦理之争升级
五角大楼与Anthropic的AI伦理冲突正式升级
美国国防部(DOD)已正式通知Anthropic,将其公司及其产品列为“供应链风险”。这一标签通常用于外国对手,如今首次被用于一家美国本土AI公司,标志着政府与前沿AI实验室之间的伦理冲突进入新阶段。
冲突根源:AI军事应用的伦理红线
Anthropic CEO Dario Amodei 坚持拒绝让军方使用其AI系统进行两项关键应用:
- 对美国民众的大规模监控
- 为完全自主武器(无人类参与目标锁定或开火决策)提供动力
五角大楼则认为,其AI使用不应受私营承包商限制。双方立场僵持数周后,国防部采取了这一前所未有的举措。
“供应链风险”标签的实际影响
该标签要求任何与五角大楼合作的公司或机构必须证明其未使用Anthropic的模型。这不仅可能扰乱Anthropic的业务,也可能影响国防部自身的运作——因为Anthropic是目前唯一拥有“可处理机密信息”系统的前沿AI实验室。
矛盾现状:一边贴标签,一边仍在使用
更具讽刺意味的是,尽管被贴上风险标签,美国军方目前仍在伊朗行动中依赖Anthropic的Claude模型。据Bloomberg报道,Claude是Palantir Maven智能系统中的主要工具之一,中东地区的军事操作员正用它快速处理作战数据。
行业与专家的强烈反应
这一决定引发了广泛批评:
- 前特朗普白宫AI顾问Dean Ball 称此举为“美国共和国的临终喘息”,指责政府放弃战略清晰和尊重,转向“暴徒式”的部落主义,对待国内创新者比对待外国对手更差。
- 数百名OpenAI和Google员工 联名呼吁五角大楼撤销标签,并敦促国会抵制这种可能被视为对美资科技公司滥用权力的行为。他们同时呼吁行业领袖继续团结,拒绝国防部将AI用于国内大规模监控和“无人类监督的自主杀人”的要求。
深层意义:AI治理与国家安全的新博弈
此次事件凸显了AI时代几个核心矛盾:
- 私营企业的伦理自主权 vs 国家安全的无限制需求
- 创新保护 vs 供应链安全的重新定义
- 国内技术领先优势 在内部冲突中可能被削弱的风险
Anthropic的案例可能成为先例,影响其他AI公司未来与政府合作的条款与底线。当“供应链风险”标签从地缘政治工具转变为国内政策杠杆时,其象征意义已远超实际监管效果。
目前,Anthropic尚未对此置评。但这场争端已从商业合同纠纷,升级为关于AI伦理、创新生态与国家权力界限的公开博弈。