五角大楼的AI军事化:聊天机器人如何参与目标锁定决策
美国国防部官员近日透露,生成式AI系统可能被用于军事目标排序与打击建议。这一消息揭示了AI在军事决策中的潜在应用,也引发了关于技术伦理与安全边界的广泛讨论。
AI如何参与军事目标锁定?
根据国防部官员的描述,军事目标锁定流程可能引入生成式AI系统:
- 目标列表输入:将潜在目标信息输入专为机密环境设计的生成式AI系统
- AI分析排序:人类操作员要求系统分析信息并优先排序目标
- 人工核查决策:人类负责检查评估AI的结果与建议
值得注意的是,OpenAI的ChatGPT和xAI的Grok这类通用聊天机器人,可能很快成为这类高风险军事决策的核心工具。
五角大楼的“克劳德战争”
与此同时,五角大楼首席技术官公开批评Anthropic的Claude模型,称其会“污染”国防供应链。他指责该模型内置了“政策偏好”,暗示其价值观可能与美国国防需求不符。
这一表态反映了军方对AI模型“政治正确性”的担忧——当AI系统被用于生死攸关的军事决策时,其训练数据、算法偏见和开发者立场都可能成为国家安全问题。
军事AI化的全球图景
乌克兰战场已成为AI军事应用的试验场:
- 乌克兰向盟友开放战场数据,用于训练无人机和其他无人系统
- 欧洲正规划“无人机密集型”的未来战争图景
- 伊朗黑客组织Handala已成为网络战的重要力量
- AI技术正在将现代冲突“戏剧化”,改变战争的表现形式
这些发展表明,军事AI化已从概念走向实战,各国都在加速布局。
技术瓶颈与现实挑战
尽管军事AI应用前景广阔,但技术挑战依然存在:
Meta推迟最新AI发布,因其性能未能达到谷歌、OpenAI和Anthropic的竞品水平。该公司前AI负责人甚至对大型语言模型持怀疑态度。
西方AI模型在发展中国家农业领域“惨败”,主要原因是缺乏本地数据训练。这一教训对军事AI同样适用——如果模型训练数据不能反映真实战场环境,其决策建议可能严重偏离实际需求。
伦理与监管困境
AI军事化引发多重伦理问题:
- 责任归属:当AI系统给出错误打击建议时,谁该负责?
- 算法偏见:训练数据中的偏见可能导致目标选择不公
- 自主武器:AI参与决策是否意味着向完全自主武器迈进?
- 国际规则:现有国际法如何适应AI军事应用的新现实?
美国社交媒体成瘾审判即将结束,将决定平台是否对儿童伤害负责。类似地,AI军事应用的监管框架亟待建立。
未来展望
五角大楼对AI的态度呈现矛盾性:一方面积极拥抱技术优势,另一方面警惕模型“污染”。这种矛盾反映了AI军事化的核心困境——如何在利用技术优势的同时,确保安全、可控、符合价值观。
随着ChatGPT、Grok等通用模型可能进入军事决策链,AI的“双重用途”特性更加凸显。技术开发者、军方和政策制定者需要共同面对这一新时代的挑战。
军事AI化已不可逆转,但人类必须保持最终决策权——这是技术伦理的底线,也是避免灾难性错误的最后防线。


