OpenAI公司近日宣布推出两款全新小型模型——GPT-5.4 mini与GPT-5.4 nano,专为需要快速响应和高效处理的高频任务设计。这两款模型在保持低延迟特性的同时,显著提升了代码生成、逻辑推理和多模态理解能力,为开发者提供了更灵活的选择。
官方介绍显示,GPT-5.4 mini在编写代码、解析系统截图以及实时图像推理等场景中表现尤为突出。相比前代GPT-5 mini,其运行速度提升超过两倍,在SWE-Bench Pro和OSWorld-Verified等基准测试中的成绩已接近体积更大的GPT-5.4模型。该模型特别适合需要快速迭代的代码开发流程,能够高效完成精准编辑、代码库导航和前端界面生成等任务,同时在多模态领域可快速解析复杂用户界面截图并执行计算机操作。
另一款模型GPT-5.4 nano则主打轻量化与低成本优势。作为GPT-5 nano的升级版本,它专为对速度和成本敏感的任务优化,开发者可将其应用于文本分类、数据提取、内容排序等场景,或作为处理简单辅助任务的代码子代理。该模型目前仅通过API提供服务,输入成本低至每百万Token 0.20美元,输出成本为1.25美元,成为当前最经济实惠的OpenAI模型选择。
在接入方式上,GPT-5.4 mini已全面支持API、Codex和ChatGPT平台。其API版本提供400k上下文窗口,输入输出成本分别为每百万Token 0.75美元和4.50美元;在Codex中调用仅消耗GPT-5.4额度的30%;ChatGPT用户可通过"思考"功能免费体验。两款模型均已开放使用,开发者可根据具体需求选择适合的版本。