五角大楼计划为AI公司设立安全环境,在机密数据上训练军事专用模型
据《麻省理工科技评论》独家获悉,美国国防部正在讨论一项计划,旨在为生成式AI公司建立安全环境,让它们能够在机密数据上训练军事专用版本的模型。这一举措标志着AI在军事应用领域迈出了关键一步,但也带来了前所未有的安全风险。
计划的核心内容
根据一位不愿透露姓名的美国国防部官员透露,该计划的核心是在获得政府机密项目认证的安全数据中心内,将AI模型的副本与机密数据配对进行训练。尽管国防部将保留数据所有权,但在极少数情况下,拥有适当安全许可的AI公司人员可能被允许访问这些数据。
目前,像Anthropic的Claude这样的AI模型已经在机密环境中用于回答问题,包括分析伊朗目标等任务。但允许模型在机密数据上进行训练和学习,将是一个全新的发展。这意味着敏感的军事情报,如监视报告或战场评估,将被嵌入到模型本身中,使AI公司比以往任何时候都更密切地接触机密数据。
军事AI应用的现状与需求
五角大楼对更强大模型的需求正日益增长。据报道,国防部已与OpenAI和埃隆·马斯克的xAI达成协议,在机密环境中运行它们的模型。随着与伊朗的冲突升级,五角大楼正在实施一项新议程,旨在成为“以AI为先的作战力量”。
在允许这种新型训练之前,国防部官员表示,五角大楼打算首先评估模型在非机密数据(如商业卫星图像)上训练的准确性和有效性。军方长期以来一直使用计算机视觉模型(一种较旧的AI形式)来识别无人机和飞机收集的图像和镜头中的物体,联邦机构也已向公司授予合同,以在此类内容上训练AI模型。
现有基础与潜在风险
构建大型语言模型(LLMs)和聊天机器人的AI公司已经创建了专门为政府工作微调的模型版本,例如Anthropic的Claude Gov,这些模型设计用于在更多语言和安全环境中运行。但这位官员的评论首次表明,构建LLMs的AI公司(如OpenAI和xAI)可能有机会在机密数据上训练模型。
然而,这一计划也带来了独特的安全风险。将敏感情报嵌入模型本身,不仅增加了数据泄露的可能性,还可能引发关于AI公司参与军事行动的伦理和法律问题。此外,模型在机密数据上训练后,其决策过程可能变得不透明,增加了误判的风险。
行业背景与未来展望
这一消息发布之际,全球军事AI竞赛正日益激烈。各国都在探索如何将AI技术整合到国防系统中,以提高作战效率和决策速度。五角大楼的这一计划,无疑将加速AI在军事领域的应用,但也可能引发国际社会的关注和争议。
从技术角度看,在机密数据上训练模型有望使其在特定任务中更加准确和有效。例如,在目标识别、情报分析和战场模拟等方面,模型可能表现出色。但这也要求AI公司必须建立严格的安全协议,并与国防部紧密合作,确保数据安全和模型可靠性。
小结
五角大楼的计划标志着AI在军事应用中的一个重要转折点。通过允许AI公司在机密数据上训练模型,国防部希望打造更强大的“AI优先”作战力量。然而,这一举措也带来了安全、伦理和透明度方面的挑战。未来,如何平衡技术创新与风险管控,将成为军事AI发展的关键议题。


