SheepNav
美国司法部称Anthropic不可被信任用于作战系统
新上线18天前0 投票

美国司法部称Anthropic不可被信任用于作战系统

在回应Anthropic提起的诉讼时,美国司法部于周二提交的法庭文件中表示,政府将这家AI开发商指定为供应链风险并未侵犯其宪法第一修正案权利,并预测该公司的诉讼将失败。文件指出,政府之所以采取行动,是出于对“Anthropic未来若继续接触政府技术系统可能采取的行为”的担忧。

核心争议:供应链风险标签与AI军事应用的限制

这场法律纠纷的核心在于美国国防部对Anthropic施加的“供应链风险”标签。该标签可能导致公司被排除在国防合同之外,理由是担心其技术可能存在安全漏洞。Anthropic则指控特朗普政府越权应用此标签,并阻止其技术在国防部内部使用。

司法部律师在文件中写道:“第一修正案不是单方面向政府强加合同条款的许可证,Anthropic没有引用任何依据来支持如此激进的结论。” 他们进一步辩称,Anthropic关于可能失去业务的担忧“在法律上不足以构成无法弥补的损害”,并呼吁法官拒绝给予公司缓刑。

政府担忧:潜在的系统破坏风险

政府的立场基于一种推测性风险。文件显示,国防部长皮特·赫格塞斯“合理地”判定,“Anthropic员工可能会破坏、恶意引入不需要的功能,或以其他方式破坏国家安全系统的设计、完整性或操作。” 这一判断源于Anthropic自身试图限制五角大楼如何使用其AI技术的努力。

简而言之,政府认为,一家主动寻求限制其技术军事用途的公司,其员工若参与国防系统的集成或维护,可能构成内部威胁。这反映了在AI日益融入国家安全领域时,对供应商意图和可靠性的高度审查。

Anthropic的立场与商业影响

Anthropic对此提出挑战,并希望诉讼解决前能恢复正常业务。该公司认为其Claude AI模型不应被用于促进对美国人的广泛监控,并且目前尚不够可靠以驱动完全自主的武器系统。

此案对Anthropic的财务影响可能非常重大。公司表示,如果该标签成立,今年可能损失高达数十亿美元的预期收入。这凸显了政府合同对前沿科技公司,尤其是那些在生成式AI领域处于领先地位的公司的重要性。

案件进展与行业背景

旧金山联邦法院的法官Rita Lin已安排在下周二举行听证会,以决定是否支持Anthropic的请求。此案是Anthropic在两地挑战五角大楼决定的诉讼之一。

这一事件发生在AI公司,特别是那些强调“安全”和“对齐”的公司(如Anthropic),与寻求利用尖端AI能力用于国防和情报任务的政府机构之间关系日益紧张的背景下。它提出了一个根本性问题:当一家公司的伦理准则(或商业策略)与政府的国家安全需求发生冲突时,谁拥有最终决定权?政府是否有权因为一家公司试图施加使用限制而将其视为不可靠的供应商?

小结

  • 法律焦点:政府应用“供应链风险”标签是否越权及违宪。
  • 政府论点:Anthropic限制技术军事用途的意图,使其员工接入政府系统时构成潜在风险。
  • 公司诉求:撤销标签,避免巨额收入损失,并坚持其AI使用的伦理边界。
  • 更广含义:这起诉讼是AI治理、国家安全与商业利益交叉点的一个标志性案例,其结果可能为其他AI公司与政府合作设定先例。

延伸阅读

  1. 太空数据中心能否支撑SpaceX的巨额估值?
  2. 在日本,机器人不是来抢工作的,而是填补没人愿意干的岗位
  3. 我让Google Maps里的Gemini规划我的一天,结果出乎意料地好
查看原文