美国当地时间4月14日,美科技大厂 Meta 与芯片厂商博通(Broadcom)宣布达成一项重大协议,将双方在 Meta 内部定制化 AI 芯片设计方面的合作关系延长至 2029 年。根据协议,Meta 初步承诺将部署高达 1GW 采用博通技术的训练与推理专用的 MTIA 芯片,未来更将把部署规模扩展至数个GW。这一长期绑定,是Meta作为AI巨头试图探索更多降低AI领域投入成本,摆脱对英伟达和AMD等通用 GPU 依赖和重构推理侧算力供应链的标志性动作。

从市场竞争逻辑看,这不仅是一场围绕推理能效与成本的突围战,更是一场传统科技大厂尝试摆脱英伟达和AMD的“自救行动”。多年来,英伟达凭借 CUDA 生态的护城河持续垄断 AI 训练市场,但随着最近几年市场需求的急速转向,越来越多的客户需求已从过去的“能否训练出最强大模型”急转为如何降低每个Token的推理成本方面,AI推理端越来越明显的性能-成本缺口,也对英伟达形成了一定程度上的掣肘,并成为当前所有英伟达的潜在挑战者共同瞄准的突破方向。

另一方面,英伟达的“强绑定生态”正让越来越多的客户倍感压力。英伟达当前AI领域的客户如谷歌、亚马逊、XAI、Meta、OpenAI、Anthropic等,都不希望被英伟达的生态完全绑定,更倾向于选择软硬解耦的方案。但英伟达为了业绩的长期稳定增长,近年来正不断试图通过强化软硬耦合,让客户与其深度绑定采购其全套产品,导致其商业目标与客户需求相悖,让这些专注于AI领域大客户的采购决策负担与顾虑日渐加重。这也让英伟达的强力竞争对手博通,抓住了机会。

联手博通造2nm ASIC,实属Meta利益权衡后的必然抉择

无论是从技术生态的契合度还是ASIC芯片开发能力上来看,当前博通都是Meta这类AI巨头最优选的合作对象。毕竟博通经过持续多年的技术布局,已经具备能够实现端到端的ASIC全栈设计能力,同时其高基数以太网交换机、光连接产品、PCIe 交换机、高速串行解串器(SerDes)技术以及以太网的机架级互连技术,能大幅提升单个 MTIA 机架内的计算带宽、在数万个节点上扩展网络容量并实现跨域互联,并在高强度 AI 工作负载期间消除网络堵塞。

除此之外,博通也与台积电深度绑定,在2nm 工艺稳定流片与大规模量产上优先级会大于大部分台积电客户,同时在匹配 Meta 未来三年数 GW 算力扩张需求上具备足够的稳定性。

况且,在Meta之前,博通在ASIC领域已有数家大厂案例背书。比如4月初,博通就与谷歌签署了长期协议,合作开发并供应张量处理单元(TPU),博通将为谷歌下一代张量处理单元研发并供应定制化TPU,还将为谷歌新一代AI服务器机柜提供网络及其他组件,协议期限至2031年。

2025年10月13日,OpenAI也与博通宣布了合作开发 10 GW定制 AI 加速器的消息。OpenAI 将负责加速器及系统设计,并与博通共同完成开发部署,双方已签署条款清单,将部署集成 AI 加速器与博通网络解决方案的机架。而OpenAI最大的竞争对手Anthropic也于今年4月6日宣布已与谷歌和博通达成一项新的合作协议,以获取约3.5 GW的谷歌TPU(张量处理单元)算力资源,预计将从2027年起陆续上线。

作为博通ASIC芯片业务的又一大重量级合作对象,Meta也是经过了深思熟虑,毕竟效率是AI算力大扩张时代的最强竞争力,作为当前引领全球AI算力扩张的主力之一,Meta不能将命运交给英伟达和AMD等传统GPU厂商,否则极容易出现因芯片间歇性断供而导致自身数据中心规模扩张计划被拖延的风险。

因此,Meta自身也通过三种策略去降低AI芯片供应链对未来公司在算力扩张上的“卡脖子”风险:其一,Meta现阶段依然会通过采购英伟达等通用GPU芯片厂商的产品来充当算力资源扩张的主力,比如该公司近几个月也承诺了会部署高达 6GW 的 AMD GPU、数百万颗 Nvidia 芯片至Meta的数据中心当中,作为Meta算力的核心支持;其二,Meta也在通过内部自主开发AI加速器的模式摆脱对英伟达和AMD等主力供应商的依赖,这些芯片都是基于 RISC-V 架构的、模块化的、可以快速迭代的推理芯片,Meta 早在2024年就已推出了第一代 MTIA 加速器——MTIA 300(已投产),并于2025年推出了MTIA 400,2027年Meta也预计将推出MTIA 450和MTIA 500芯片,丰富自研AI芯片版图;其三,借助博通以及Arm这类外部ASIC芯片开发商的能力,Meta也在不断推动ASIC芯片的“联合开发”模式,比如此次与博通合作的2nm芯片,以及今年3月发布的Meta与Arm联合开发的AGI CPU,都是Meta委外ASIC芯片开发的关键案例。

当推理成为主战场,AI芯片产业将加速实现“异构协同”

最近两年,AI大模型应用市场最核心的变化就是,越来越多大模型厂商的关注点从过去的专注大模型的训练和规模扩张,急速转向更贴近客户服务的推理层面。Token的“贵”已成为制约越来越多AI大模型企业业务增长的关键瓶颈,以现阶段国内AI大模型的Token价格为例,字节跳动旗下的即梦连续包年首年价格为393元(次年续费高达659元/年),每月仅725积分,最多可以生成2900张图片和72个视频;而快手旗下的可灵AI仅最低等级的黄金会员每年的收费价格就高达798元,每月仅有660灵感值(积分)。考虑到当前视频生成较低的良率,无论是短剧应用赛道抑或是影视、广告等领域,仍然是一笔不小的开支。

对于当下的AI大模型服务商来说,Token的推理成本就是横亘在业务扩张和业绩增长面前的最大关卡。现阶段,降低Token推理成本的最直接方式,就是在不影响服务质量的基础上,极致压缩自身AI加速卡的整体成本,比如适当降低高价格的Nvidia和AMD产品采购,将这部分资源用成本更低且更定制化、低功耗的ASIC芯片取代,打造更高性价比的“专属算力集群”。

因此,全球头部AI厂商近些年陆续开启了自主布局专属算力体系的进程。谷歌推出TPU、亚马逊打造Trainium、微软研发Maia,三条自研芯片路线均已步入成熟商用阶段,具备对外商业化输出的能力。

谷歌芯片代号为Ironwood的第七代TPU,已于2025年末正式发布并推向市场。相较上一代产品,其单颗芯片性能提升幅度超过4倍,单个集群最高可实现9216颗芯片的高速互联。谷歌对这款芯片的定位十分清晰,即面向推理场景、兼具高性价比的商业化算力核心。回溯谷歌TPU发展历程,在2015年因内部算力提升出现瓶颈而启动自研,历经十年迭代,于2025年实现TPU向客户数据中心的开放部署,将曾经的用来内部应急性的产品升级为战略级的商业化产品。Claude母公司Anthropic也明确表示,旗下Claude大模型系列的训练与部署也将采用100万颗TPU芯片作为支撑,这一合作也充分验证了谷歌Ironwood的商业价值。

不同于谷歌的是,亚马逊则选择了更具差异化的发展路径。AWS长期依赖旗下AnnapurnaLabs自研的芯片,Trainium系列在定位上与英伟达的GPU对标,核心优势在于优化云基础设施成本、降低对外部供应商的依赖。今年3月14日,AWS也与Cerebras达成长期战略合作,计划将后者的晶圆级WSE芯片引入AWS自有的数据中心,与自研Trainium形成协同并行部署,走出了一条“自研为核心、外协为辅助”的路径,即Trainium芯片负责承载低速、低成本的推理业务,而Cerebras晶圆级芯片则面向对时延要求严苛、可接受为速度支付溢价的高端客户群体。

本次再加上Meta与博通在2nm ASIC芯片上的“强强联合”,Meta的模式也将为当前的AI芯片产业增添不一样的色彩。因此,接下来或将有越来越多的国内外AI巨头相继跟随这些头部大厂,开始推动AI芯片供应链重组,走上“异构协同”之路。

总结

Meta与博通的强强联合,标志着AI芯片产业的规则已经被重新改写,行业也正从过去的单一供应商垄断转向“自主研发+委外合作+对外采购”的异构协同模式。Meta通过这种方式既构建了更加灵活的AI芯片供应链体系,更为未来的算力扩张锚定了低成本的优势。博通则在此次合作中进一步巩固了公司在 AI 定制化芯片赛道的领先地位,为其未来几年的业绩增长奠定了强有力的基础。不过,越来越多AI巨头的转向,恐将持续加剧英伟达和AMD的焦虑感,接下来的AI推理芯片行业必将迎来一场激烈混战。

文章来自:电子发烧友

Loading

作者 yinhua

发表回复