Anthropic CEO 炮轰 OpenAI:关于军事合同的言论是‘彻头彻尾的谎言’
近日,AI 安全领域的争议再次成为焦点。据 The Information 报道,Anthropic 联合创始人兼 CEO Dario Amodei 在一份内部备忘录中,对 OpenAI 与美国国防部(DoD)达成的军事合同表达了强烈不满,并直指 OpenAI 在相关沟通中的表述为“彻头彻尾的谎言”。
事件背景:Anthropic 为何放弃军事合同?
上周,Anthropic 与美国国防部未能就一项军事技术合作协议达成一致。Anthropic 此前已与军方签订了一份价值 2 亿美元 的合同,但在新一轮谈判中,该公司坚持要求国防部明确承诺:不会使用其 AI 技术进行国内大规模监控或开发自主武器系统。然而,国防部(在特朗普政府时期曾被称为“战争部”)拒绝了这一限制性条款,转而与 OpenAI 签署了协议。
Amodei 的指控:OpenAI 在玩“安全表演”?
在给员工的备忘录中,Amodei 将 OpenAI 与国防部的合作描述为“安全表演”(safety theater)。他写道:“[OpenAI] 接受[国防部的交易]而我们没有的主要原因是,他们关心的是安抚员工,而我们真正关心的是防止滥用。” Amodei 进一步指责 OpenAI CEO Sam Altman 在公开沟通中“错误地将自己描绘成和平缔造者和交易撮合者”,并称其相关言论是“彻头彻尾的谎言”。
OpenAI 的回应:合同已包含“合法使用”限制
针对外界的质疑,OpenAI 在一篇博客文章中回应称,其与国防部的合同允许 AI 系统用于“所有合法目的”。文章明确表示:“在我们的互动中,国防部明确认为国内大规模监控是非法的,并且不计划为此目的使用我们的技术。我们确保在合同中明确排除了此类用途。” 然而,Amodei 似乎并不买账,他认为“合法使用”这一表述过于宽泛,无法有效约束潜在的技术滥用风险。
行业反思:AI 安全与商业利益的平衡难题
这一事件凸显了 AI 公司在追求商业机会与坚守安全伦理之间的艰难抉择。Anthropic 自成立以来,一直将 AI 安全作为核心使命,此次放弃军事合同,正是其原则性立场的体现。而 OpenAI 虽然也强调安全,但在面对国防部这样的重要客户时,选择了更灵活的合同条款。
值得注意的是,Amodei 的批评并非孤立事件。近年来,随着 AI 技术(尤其是大型语言模型)在军事、监控等敏感领域的应用潜力日益凸显,科技公司内部及外部的伦理争议不断升温。从谷歌员工抗议“Project Maven”军事项目,到微软与亚马逊在国防合同上的激烈竞争,AI 伦理已成为行业无法回避的议题。
未来展望:监管与自律的双重挑战
目前,美国尚未出台针对 AI 军事应用的联邦级法规,这使得科技公司在与政府合作时,不得不自行设定伦理红线。Anthropic 的坚持,或许会推动行业形成更严格的自律标准;而 OpenAI 的“务实”选择,则可能为其他公司开辟一条“合规但宽松”的合作路径。
无论如何,这场争论再次提醒我们:在 AI 技术快速发展的今天,如何确保其不被滥用,不仅是科技公司的责任,也需要政府、学术界和公众的共同参与。未来,随着 AI 在国防、安防等领域的应用进一步深化,类似的伦理冲突或将更加频繁。


