
战争AI模型究竟长什么样?初创公司Smack正训练模型规划战场行动
当Anthropic等公司还在为AI军事用途设限而争论时,初创公司Smack Technologies已悄然获得3200万美元融资,专门开发用于规划和执行军事行动的AI模型。这家由前美国海军陆战队特种作战司令部指挥官Andy Markoff联合创立的公司,正通过类似AlphaGo的试错学习方式训练模型,旨在超越Claude等通用模型在军事场景下的能力。
军事AI的“特种部队”
Smack Technologies的创始人背景与硅谷主流AI公司截然不同。CEO Andy Markoff曾是美国海军陆战队特种作战司令部指挥官,参与过伊拉克和阿富汗的高风险特种作战任务。联合创始人Clint Alanis也是前海军陆战队员,而技术负责人Dan Gould则来自Tinder,曾任技术副总裁。
这种军事+技术的组合让Smack在军事AI领域拥有独特视角。Markoff直言:“当你服役时,你宣誓要光荣、合法地服役,遵守战争规则。对我来说,部署技术并确保其符合道德使用的人应该穿着制服。”
如何训练战争AI?
Smack的模型训练方法借鉴了Google 2017年的AlphaGo程序,通过试错学习识别最优任务计划。具体策略包括:
- 让模型在各种战争游戏场景中运行
- 由专家分析师提供信号,告诉模型其选择的策略是否会成功
- 通过反复迭代优化决策能力
Markoff表示,虽然公司没有传统前沿AI实验室的预算,但已投入数百万美元训练首批AI模型。
与通用AI模型的根本差异
Markoff指出,当前大型语言模型(如Claude)并非为军事用途优化。这些通用模型擅长总结报告,但存在两大局限:
- 缺乏军事数据训练:未在军事特定数据集上训练,不了解战场环境、战术原则和作战流程
- 物理世界理解不足:不具备人类水平的物理世界理解能力,难以控制物理硬件
“我可以告诉你,它们绝对不具备目标识别、火力控制或任务规划的能力,”Markoff强调。
硅谷的军事AI争议背景
军事AI使用已成为硅谷热点话题。此前,美国国防部官员与Anthropic高管就约2亿美元合同条款发生冲突,最终国防部长Pete Hegseth宣布Anthropic为供应链风险。争议焦点之一正是Anthropic希望限制其模型在自主武器中的使用。
Markoff认为,这场争论掩盖了一个事实:今天的LLM本就不是为军事设计的。Smack则采取了不同路径——从一开始就专门为军事应用构建AI。
军事AI的伦理边界
与Anthropic明确限制自主武器使用不同,Smack对特定军事用途禁令的态度似乎更为宽松。公司更强调使用者的责任而非技术本身的限制。这种立场反映了军事背景创始人对“工具vs使用者”伦理框架的不同理解。
行业影响与未来展望
Smack的崛起标志着军事AI专业化趋势的加速。随着国防部门对AI需求增长,专门针对军事场景优化的模型可能成为新赛道。这不仅涉及技术能力差异,更触及数据访问权限、伦理框架和部署责任等深层问题。
对于AI行业而言,军事应用始终是最敏感也最具争议的领域之一。Smack的案例表明,当通用AI公司因伦理顾虑犹豫时,垂直领域的专业玩家可能迅速填补市场空白。未来军事AI的发展,将在技术创新、伦理约束和地缘政治需求之间寻找微妙平衡。