摩尔线程与智谱近日宣布达成重要技术合作:基于摩尔线程旗舰级AI训推一体全功能GPU MTT S5000,在SGLang推理框架下成功完成新一代大模型GLM-5的Day-0全流程适配验证。这一突破标志着国产GPU在支持前沿AI模型方面实现重大进展,为开发者提供高性能、低延迟的国产技术解决方案。
作为GLM系列最新版本,GLM-5定位为全球顶尖的Coding模型,其核心突破在于Agentic Engineering能力。该模型不仅能处理复杂代码生成,更具备系统工程级的长程任务规划能力,可实现从需求分析到应用部署的端到端开发。在权威基准测试中,GLM-5以77.8和56.2的得分刷新SWE-bench-Verified与Terminal Bench 2.0开源模型纪录,性能超越Gemini 3 Pro,并在Artificial Analysis榜单中位列全球第四、开源模型首位。
MTT S5000的硬件优势为GLM-5的高效运行提供坚实基础。这款基于第四代MUSA架构"平湖"打造的全功能GPU,单卡AI算力达1000 TFLOPS,配备80GB显存与1.6TB/s带宽,支持从FP8到FP64的全精度计算。其独创的异步通信引擎(ACE)通过物理级通信计算重叠技术,有效释放15%被占算力,配合细粒度重计算技术将开销降至原有四分之一,显著提升分布式推理效率。
在软件适配层面,摩尔线程展现出强大的技术整合能力。MUSA软件栈原生支持PyTorch、Megatron-LM等主流框架,TileLang原生算子单元测试覆盖率超80%,使GLM-5的移植成本降低60%以上。针对长序列推理场景,MTT S5000通过稀疏Attention架构级支持与算子融合优化,在保持代码生成质量的同时,将首字延迟(TTFT)压缩至行业领先水平,特别适合代码库分析、智能体任务等复杂场景。
原生FP8加速技术是此次适配的另一亮点。通过SGLang-MUSA推理引擎与硬件计算单元的深度协同,MTT S5000在保持模型精度无损的前提下,将显存占用降低40%,推理吞吐量提升2.3倍。这种软硬协同优化使得GLM-5在函数补全、漏洞检测等核心场景的表现超越同级产品,为大规模商业部署提供更高性价比选择。
从GLM-4.6到GLM-5的连续快速适配,验证了摩尔线程全栈技术体系的成熟度。MTT S5000不仅支持万卡级训练集群构建,更能满足高并发在线推理服务的严苛要求。目前该产品已实现与主流AI生态的无缝兼容,开发者可零成本迁移现有代码,第一时间获取最新模型能力。这种敏捷响应机制正在推动国产AI生态形成良性循环,为行业提供自主可控的技术发展路径。



