OpenAI 发布 GPT-5.4 mini 与 nano:专为编码与高负载场景优化的高效小模型
OpenAI 推出 GPT-5.4 mini 与 nano:专为效率而生的新一代小模型
2026年3月17日,OpenAI 正式发布了 GPT‑5.4 mini 和 GPT‑5.4 nano,这是该公司迄今为止最强大的小型模型。这两款模型旨在将 GPT‑5.4 的核心能力注入更快速、更高效的架构中,专门应对高并发、低延迟的 API 与子代理工作负载。
模型定位与核心优势
GPT‑5.4 mini 在编码、推理、多模态理解和工具使用等多个维度上,相比前代 GPT‑5 mini 实现了显著提升,同时运行速度提升了 2倍以上。更令人印象深刻的是,它在多项专业评估中,性能已接近更大的 GPT‑5.4 模型。例如,在 SWE-Bench Pro(软件工程基准测试)和 OSWorld-Verified(操作系统交互验证)等关键评测中,其表现与大型模型差距甚微。
GPT‑5.4 nano 则是 GPT‑5.4 系列中体积最小、成本最低的版本,专为对速度和成本最为敏感的任务场景设计。它同样是 GPT‑5 nano 的重大升级版,OpenAI 推荐将其用于分类、数据提取、排序以及处理较简单支持任务的编码子代理。
为何“小”模型变得如此重要?
OpenAI 明确指出,这些模型是为那些 延迟直接影响产品体验 的工作负载而构建的。在以下场景中,最大的模型往往并非最佳选择:
- 需要即时响应的编码助手:开发者期望代码补全或调试建议几乎无延迟。
- 快速完成支持任务的子代理:在复杂工作流中,小型代理需要高效处理辅助环节。
- 捕获并解读屏幕截图的计算机使用系统:实时图像理解要求模型快速反应。
- 能够对图像进行实时推理的多模态应用:交互式视觉分析不容等待。
在这些场景下,理想的模型是能够 快速响应、可靠使用工具,同时在复杂专业任务上仍保持良好性能 的那一个。GPT-5.4 mini 和 nano 正是为此而生。
性能数据一览
以下是一组关键基准测试的对比数据(基于最高推理强度设置):
| 模型 | SWE-Bench Pro (Public) | Terminal-Bench 2.0 | Toolathlon | GPQA Diamond | OSWorld-Verified |
|---|---|---|---|---|---|
| GPT-5.4 | 57.7% | 75.1% | 54.6% | 93.0% | 75.0% |
| GPT-5.4 mini | 54.4% | 60.0% | 42.9% | 88.0% | 72.1% |
| GPT-5.4 nano | 52.4% | 46.3% | 35.5% | 82.8% | 39.0% |
| GPT-5 mini | 45.7% | 38.2% | 26.9% | 81.6% | 42.0% |
从数据可以看出,GPT-5.4 mini 在多项测试中已大幅超越前代,并在部分领域逼近旗舰模型。GPT-5.4 nano 则在保证基础性能的同时,提供了极致的成本与速度优势。
来自早期用户的反馈
AI 知识平台 Hebbia 的 CTO Aabhas Sharma 在测试后表示:
“GPT-5.4 mini 在其类别模型中提供了强大的端到端性能。在我们的评估中,它在多项输出任务和引用召回方面,以更低的成本达到或超越了竞品模型。与更大的 GPT-5.4 模型相比,它还实现了更高的端到端通过率和更强的来源归因能力。”
特别适合的编码工作流
这两款模型在 受益于快速迭代的编码工作流 中表现尤为出色。它们能够以低延迟处理:
- 针对性代码编辑
- 代码库导航
- 前端生成
- 调试循环
这使得它们非常适合需要在更短时间内完成的编码任务,为开发者提供了更流畅、更高效的辅助体验。
小结:AI 模型发展的“效率转向”
GPT-5.4 mini 和 nano 的发布,标志着 OpenAI 乃至整个 AI 行业的一个重要趋势:在追求模型能力极限的同时,针对特定场景进行深度优化,平衡性能、速度与成本。这不再是简单的“缩小版”,而是为高负载、实时性要求高的生产环境量身打造的专业工具。随着 AI 应用日益深入各行各业,这种能够快速、可靠、经济地处理专业任务的“小巨人”模型,其市场价值与战略意义正愈发凸显。


