SheepNav
新上线1个月前0 投票

Anthropic拒绝五角大楼新条款,坚守致命自主武器和大规模监控红线

在五角大楼发出最后通牒不到24小时之际,AI公司Anthropic正式拒绝了美国国防部对其AI技术无限制访问的要求。这一决定标志着AI伦理与国家安全之间的紧张关系达到了新的临界点,也凸显了科技公司在军事应用中的道德立场。

事件背景

这场对峙源于美国国防部长皮特·赫格塞斯希望重新谈判所有AI实验室与军方的现有合同。五角大楼向多家领先的AI公司发出最后通牒,要求它们同意新的合作条款,其中包括对AI技术的无限制访问权限。据报道,OpenAIxAI已经同意了这些新条款,而Anthropic则成为唯一公开拒绝的主要AI公司。

这一拒绝导致Anthropic首席执行官达里奥·阿莫代本周被传唤至白宫,与赫格塞斯本人会面。在会面中,国防部长向阿莫代发出了最后通牒,要求他在周五工作日结束前改变立场,否则将面临后果。

核心内容

在周四晚些时候发布的声明中,阿莫代表达了Anthropic的坚定立场。他写道:“我深信使用AI保卫美国和其他民主国家、击败专制对手具有存在性重要性。因此,Anthropic一直积极部署我们的模型到国防部和情报界。”

然而,阿莫代明确指出了公司的两条红线:

  • 不参与对美国公民的大规模监控
  • 不开发或支持致命自主武器系统(即无需人类监督即可自主决定击杀目标的武器)

阿莫代强调,公司“从未对特定军事行动提出异议,也从未试图以临时方式限制我们技术的使用”,但在“少数情况下,我们认为AI可能破坏而非捍卫民主价值观”。他特别提到了大规模国内监控完全自主武器这两个领域。

值得注意的是,阿莫代区分了“部分自主武器”和“完全自主武器”,认为前者“对民主防御至关重要”,而后者可能最终“对某些任务至关重要”,但目前仍存在重大伦理和安全风险。

行业影响

Anthropic的这一决定在AI行业和国家安全领域引发了广泛关注。作为由前OpenAI研究人员创立的公司,Anthropic一直以强调AI安全和伦理而闻名。这次公开对抗五角大楼,显示了科技公司在军事AI应用方面的道德底线正在变得更加明确。

这一事件也凸显了AI行业内部的分歧:

  • OpenAI和xAI选择了与军方合作,接受更宽松的限制
  • Anthropic则坚持更严格的伦理标准,即使面临政府压力

这种分歧可能影响未来AI公司在政府合同中的竞争力,同时也可能塑造公众对AI军事应用的看法。随着AI技术在国防领域的应用日益广泛,类似的伦理冲突可能会更加频繁。

总结与展望

Anthropic拒绝五角大楼新条款的决定,标志着AI伦理与国家安全之间的平衡点正在被重新定义。在AI技术快速发展的背景下,如何确保技术进步不损害民主价值观和人权保护,成为科技公司和政府都需要面对的核心问题。

展望未来,这一事件可能产生多方面影响:

  • 推动更明确的AI军事应用伦理框架的建立
  • 促使其他AI公司重新评估与军方的合作条款
  • 可能引发国会关于AI武器系统监管的立法讨论
  • 影响公众对AI公司社会责任表现的看法

随着2026年这一关键时间点的到来,AI技术与国家安全的关系将进入新的阶段。Anthropic的立场不仅关乎一家公司的商业决策,更反映了整个行业在技术伦理方面的成熟度。在AI能力不断增强的今天,如何在创新与责任之间找到平衡,将是所有利益相关者必须共同面对的挑战。

延伸阅读

  1. 微软服务条款警示:Copilot 仅供娱乐,用户需自行承担风险
  2. Suno成音乐版权噩梦:AI平台轻易生成碧昂丝等明星歌曲仿制品
  3. Codex 定价调整:从按消息计费转向与 API 令牌使用量挂钩
查看原文