OpenAI 披露与五角大楼协议更多细节,CEO 承认“仓促且观感不佳”
在 Anthropic 与五角大楼的谈判破裂后,OpenAI 迅速宣布达成一项在机密环境中部署模型的协议,引发业界对其安全措施的质疑。CEO Sam Altman 坦承协议“确实仓促”,且“观感不佳”,但公司通过博客文章详细阐述了其多层防护策略。
协议背景与争议
上周五,Anthropic 与五角大楼的谈判失败,特朗普总统随后指示联邦机构在六个月的过渡期后停止使用 Anthropic 的技术,国防部长 Pete Hegseth 更将这家 AI 公司列为供应链风险。紧接着,OpenAI 宣布与国防部达成协议,允许其模型在机密环境中部署。这一快速转变引发关注,因为 Anthropic 曾明确划出红线,禁止其技术用于完全自主武器或大规模国内监控,而 Altman 表示 OpenAI 也有相同红线。外界自然质疑:OpenAI 是否诚实地执行了这些安全措施?为何它能达成协议而 Anthropic 不能?
OpenAI 的回应与安全框架
面对质疑,OpenAI 高管在社交媒体上为协议辩护,同时发布博客文章,概述其方法。文章指出,OpenAI 的模型在三个领域被禁止使用:大规模国内监控、自主武器系统,以及“高风险自动决策(如‘社会信用’系统)”。 公司强调,与其他一些在国家安全部署中“减少或移除安全护栏、主要依赖使用政策作为主要防护”的 AI 公司不同,OpenAI 通过“更广泛、多层次的防护方法”来保护这些红线。
具体措施包括:
- 保留对安全堆栈的完全自主权:OpenAI 控制其模型的安全设置,确保不被滥用。
- 通过云端部署:模型部署在云端环境中,便于监控和管理。
- 有权限的 OpenAI 人员参与循环:在部署过程中,有经过审查的 OpenAI 员工介入,提供人工监督。
- 强有力的合同保护:协议中包含法律条款,强制执行安全标准。
此外,公司还提到,这些措施叠加了美国法律中已有的强大保护机制。
行业影响与未来展望
这一事件凸显了 AI 公司与政府合作时的伦理挑战。OpenAI 的快速行动可能旨在抢占市场先机,但其仓促性也引发了对透明度和长期安全性的担忧。随着 AI 技术在国防和国家安全领域的应用日益增多,如何平衡创新与伦理将成为关键议题。OpenAI 的多层防护策略能否有效执行,仍需时间验证,而 Anthropic 的退出则提醒业界,红线设定可能影响商业机会。未来,其他 AI 公司可能会借鉴此案例,调整自身的安全政策和合作策略。
