博通与meta近日宣布深化战略合作关系,双方将共同推进人工智能计算基础设施的跨世代建设。根据协议,博通将为meta的训练与推理加速器(MTIA)芯片提供长期技术支持,合作周期延续至2029年。这一合作标志着全球科技巨头在AI硬件领域的新一轮布局,旨在通过定制化解决方案满足超大规模算力需求。
此次合作的核心是meta的MTIA芯片部署计划。作为meta芯片战略的关键支柱,MTIA将采用博通的基础XPU平台进行联合设计,实现逻辑、内存和高速I/O的深度整合。首阶段部署规模超过1吉瓦,未来将扩展至多吉瓦级别,为WhatsApp、Instagram等全球数十亿用户提供实时生成式AI服务和"个人超级智能"体验。博通首席执行官陈福阳强调,该合作体现了公司在AI网络领域的领导地位,其定制化平台能够支持多代产品的持续迭代。
为支撑MTIA集群的高密度计算需求,博通将提供完整的以太网网络解决方案。其高基数交换机、光连接产品和高速SerDes技术构成低延迟架构,确保在单个机架内实现计算带宽扩展,并在数万个节点间消除网络拥塞。这种面向未来的骨干网设计,对处理最密集的AI工作负载至关重要,同时可显著降低meta多代基础设施的总体拥有成本。
meta创始人马克·扎克伯格透露,公司正与博通在芯片设计、封装和网络领域展开全面合作。首批部署的定制芯片将采用2纳米制程技术,未来计划扩展至数吉瓦规模。与谷歌、亚马逊将自研芯片用于云端服务的模式不同,meta的MTIA芯片完全专供内部使用,以优化特定工作负载的性能表现。2026年3月,meta已发布四款新版MTIA芯片,进一步强化其AI硬件布局。
在算力竞赛中,meta的投入规模令人瞩目。公司承诺2026年在AI领域投资高达1350亿美元,除博通的定制芯片外,还包括部署6吉瓦的AMD GPU、数百万颗英伟达芯片,以及基于Arm架构的新型定制芯片。为支撑这些需求,meta计划在全球建设31个数据中心,其中27个位于美国境内。这种"全栈自研+外部采购"的混合策略,使其在AI基础设施领域形成独特竞争力。
对博通而言,这份合约巩固了其在定制AI芯片市场的领先地位。两周前,公司刚宣布与谷歌达成生产TPU的长期协议,并透露Anthropic将获得高达3.5吉瓦的谷歌自研芯片算力。陈福阳在财报会议上表示,meta的MTIA发展蓝图充满活力,下一代XPU将在2027年及以后扩展至数吉瓦规模。他预计OpenAI的首代AI芯片也将于2027年推出,显示行业正进入定制化芯片主导的新阶段。
市场对这次合作反应积极。消息公布后,博通盘后股价上涨3%,而meta股价保持平稳。分析指出,随着科技巨头竞相构建AI数据中心,开发更小体积、更低成本的专用芯片(ASIC)已成为趋势,这有望打破英伟达和AMD在GPU市场的垄断地位。meta的内部专用芯片策略,配合其庞大的用户规模和数据资源,可能重塑AI竞赛的竞争格局。
