AI芯片巨头英伟达最备受关注的GTC开发者大会即将召开,全球AI算力走向备受关注。
随着英国芯片架构企业Arm继续发力服务器市场,并在近期更新了其服务器处理器Arm Neoverse系列的产品路线图后,推出两款基于全新第三代Neoverse IP构建的新的Arm Neoverse计算子系统(CSS)。外界也将初窥下一代整合CPU与GPU的AI“超级芯片”部分面貌,英伟达是否跟进也将备受关注。
Neoverse是Arm于2018年推出、针对数据中心市场的服务器处理器品牌,在Arm规划下,Neoverse旗下N系列、V系列和E系列各有定位,如V系列即强调性能优先,用于高端服务器市场,上一代Neoverse V2就被用于英伟达的AI芯片设计中。
去年3月,英伟达推出首款将CPU和GPU封装到一起的“Grace Hopper”GH200超级芯片。其中“Grace”就是英伟达在2021年4月发布的数据中心Arm CPU系列,“Hopper”即英伟达最新架构GPU量产型号H100。
一位芯片行业投资人告诉界面新闻记者,英伟达的Grace Hopper芯片就是将CPU与顶级AI训练产品(GPU)一起,打造出“超级芯片”,共同构建了AI完整解决方案。
GH200可用于AI训练和推理,英伟达通过将一块CPU与一块H100 GPU封装成一整块芯片,大幅提高了CPU、GPU间数据传输效率。在同年11月,英伟达再将GH200升级,将GH200中GPU配备的96GB容量HBM3内存,升级为144GB的HBM3e,再次大幅提高数据传输效率。
在英伟达凭借GPU产品抓住AI浪潮的过程中,Arm也从英伟达在AI计算的强势地位中受益,意味着数据中心市场将可能更多采用基于Arm技术的处理器。
Arm基础设施事业部总经理Mohamed Awad向界面新闻记者解释,英伟达之前推出的Grace Hopper超级芯片重新设计了系统架构,过去数据中心使用一颗CPU管理多个GPU的设计,而Grace Hopper芯片转变为一颗CPU只对应一个GPU。“更多的CPU意味着内存一致性,最终会大大提高GPU的利用率。”
Arm称,随着行业对AI算力的需求逐渐由训练向推理转型,CPU推理将是生成式AI计算应用的关键组成。
但并非所有AI处理都将在CPU上进行。Arm基础设施事业部产品解决方案副总裁Dermot O’Driscoll以Grace Hopper为例称,英伟达对该芯片的一项重要创新在于内存容量和共享内存模式,此类紧耦合CPU设计加上配置AI加速器,对当前流行的大参数大语言模型和其他AI应用非常有益。
为了使得定制芯片变得更迅速且降低设计难度,Arm于去年推出了Arm Neoverse CSS。在Neoverse CSS中,由Arm配置、优化和验证完整的计算子系统,并针对各类计算用例进行配置,合作伙伴则专注于软件调优、定制加速等工作,还能能加速产品上市时间、降低工程成本。
Dermot O’Driscoll指出,Neoverse CSS是专为帮助客户在Arm CPU平台上,快速打造通用计算芯粒而推出的产品。它能提供客户所需的所有接口,以便选择耦合自身的加速器。这种方法既可以在需要CPU时提供CPU,又可以在需要AI加速器时提供AI加速器,做到两全其美。
一直以来,对于自研Arm架构的Grace CPU,英伟达极力淡化与英特尔、AMD的竞争色彩。
黄仁勋曾在2021年向界面新闻记者表示,绝大多数数据中心仍将继续使用现有x86 CPU,Grace则主要用于计算领域大型数据密集型细分市场,不会对现有CPU厂商带来“改变游戏规则”般的影响。
不过,市场格局已经发生了改变。在数据中心市场,Arm正逐渐站稳脚跟,对英特尔、AMD两巨头形成挑战。
根据市场研究机构Counterpoint报告,Arm架构服务器2022年首次在数据中心市场获得超10亿美元收入,其中AWS自研芯片占该市场3.16%份额,Ampere占1.52%。随着微软在2023年部署其自研的Arm芯片,以及Grace Hopper的出货,预计Arm在服务器市场份额还将继续上升。