
Anthropic否认能在战争期间破坏AI工具,称Claude模型无法远程操控
近日,美国国防部与AI公司Anthropic之间的法律纠纷引发关注。国防部指控Anthropic可能在战争期间操纵其生成式AI模型Claude,从而危及军事行动。对此,Anthropic高管在法庭文件中坚决否认,强调公司无法远程关闭或修改已部署的Claude模型。
核心争议:AI模型在军事应用中的控制权
这场争论的核心在于:一旦AI模型被军方部署,其开发者是否仍能对其施加影响?国防部担心,Anthropic可能通过“后门”或远程“紧急关闭开关”在关键时刻干扰军事行动,例如分析数据、生成作战计划等任务。这种担忧导致国防部将Anthropic列为“供应链风险”,并禁止其软件在国防部及相关承包商中使用。
Anthropic的回应:技术层面上的不可能
Anthropic公共部门负责人Thiyagu Ramasamy在法庭文件中明确表示:“Anthropic从未有能力导致Claude停止工作、改变其功能、切断访问,或以其他方式影响或危及军事操作。”他进一步解释,公司没有所需的访问权限来禁用技术或在行动期间修改模型行为。
- 无后门或远程“紧急关闭开关”:Ramasamy强调,Claude的技术设计不允许Anthropic人员登录国防部系统进行修改或禁用。
- 更新需政府批准:模型更新必须获得政府及其云服务提供商的批准,这意味着公司无法单方面推送可能有害的更新。
行业背景与影响
这一事件突显了AI在国家安全领域应用的敏感性和复杂性。随着AI技术越来越多地融入军事系统(如数据分析、备忘录撰写和作战计划生成),其可靠性和独立性成为关键考量。国防部的担忧并非空穴来风,因为AI模型的潜在漏洞或恶意操控可能带来灾难性后果。然而,Anthropic的立场也反映了AI开发者在平衡创新与责任时的困境——如何确保模型安全,同时避免被误认为具有不当控制能力。
法律与商业后果
Anthropic已提起两起诉讼,挑战禁令的合宪性,并寻求紧急命令以撤销禁令。但商业影响已显现:客户开始取消交易,其他联邦机构也在放弃使用Claude。一场听证会定于3月24日在旧金山联邦地区法院举行,法官可能很快做出临时裁决。政府律师在文件中辩称,国防部“不必容忍关键军事系统在国防和军事行动的关键时刻面临风险”。
未来展望
这场纠纷不仅关乎Anthropic与国防部的直接冲突,更可能为AI在军事领域的监管树立先例。它提出了一个根本问题:在AI时代,如何定义和控制“供应链风险”?随着AI模型变得更加复杂和自主,类似的争议可能会在其他国家和公司中重现。对于AI行业而言,这强调了透明度和技术设计的重要性——开发者需从源头确保模型的安全性和不可篡改性,以赢得政府和公众的信任。
总之,Anthropic与国防部的对峙揭示了AI技术在国家安全应用中的深层挑战。尽管公司否认了操控可能性,但这一事件提醒我们,AI的部署必须伴随严格的技术保障和监管框架,以防止潜在风险。
