阿里巴巴旗下千问团队近日发布了一款名为Qwen3-Coder-Next的全新语言模型,该模型专为编码代理和本地开发场景设计,采用开放权重架构,旨在为开发者提供更高效的编程工具。与传统的参数扩展模式不同,Qwen3-Coder-Next通过创新训练方法,在降低推理成本的同时显著提升了编程和智能体能力。
该模型基于Qwen3-Next-80B-A3B-Base构建,引入了混合注意力机制与专家混合(MoE)架构。训练过程中,团队采用大规模可执行任务合成、环境交互和强化学习技术,使模型能够直接从环境反馈中学习。具体训练方法包括:在代码与智能体数据上进行持续预训练,利用高质量智能体轨迹数据进行监督微调,针对软件工程、QA、Web/UX等领域进行专家训练,最终将专家能力蒸馏到单一可部署模型中。这种训练方式特别强调长程推理、工具使用和错误恢复能力,这些特性对现实编程场景至关重要。
在性能评估方面,Qwen3-Coder-Next在多个权威编程智能体基准测试中表现优异。使用SWE-Agent框架时,该模型在SWE-Bench Verified基准上取得超过70%的成绩,在多语言设置和更具挑战性的SWE-Bench-Pro测试中也保持竞争力。值得注意的是,尽管其激活参数规模较小,但在多项评测中仍能媲美甚至超越参数规模大10-20倍的开源模型。
效率与性能的平衡是该模型的另一大亮点。测试数据显示,Qwen3-Coder-Next(3B激活参数)在SWE-Bench-Pro测试中的表现可与参数量大数十倍的模型相提并论。虽然全注意力模型在绝对性能上仍具优势,但Qwen3-Coder-Next在低成本智能体部署领域展现出明显的效率优势,处于帕累托前沿位置。这种特性使其特别适合需要快速响应和资源优化的开发场景。
目前,Qwen3-Coder-Next已通过ModelScope和Hugging Face平台开源,开发者可以自由获取模型权重和相关文档。千问团队表示,后续将持续优化模型的推理决策能力,扩展支持的任务类型,并根据用户反馈进行快速迭代,为编程智能体领域带来更多创新解决方案。
