Marvell 美满电子当地时间 17 日宣布推出业界首款 2nm 定制 SRAM,可为 AI xPU 算力设备提供至高 6Gb(即 768MB)的高速片上缓存。Marvell 宣称其定制版 2nm SRAM 设计相比标准片上 SRAM 可节约 15% 的面积、降低约 2/3 的待机功耗,同时能实现 3.75GHz 的工作频率。

Marvell 高级副总裁兼定制云解决方案部总经理 Will Chu 表示:定制化是人工智能基础设施的未来。超大规模企业目前用于开发尖端定制 XPUs 的方法论和技术将逐渐渗透到更多客户、更多设备类别和更多应用中。我们期待与我们的合作伙伴和客户共同打造定制化时代的领先技术组合。

早前,Marvell展示了其用于下一代 AI 和云基础设施的首款 2nm 硅片 IP。该工作硅片采用台积电的 2nm 工艺生产,是 Marvell 平台的一部分,用于开发定制 XPU、交换机和其他技术,以帮助云服务提供商提升其全球运营的性能、效率和经济潜力。

Marvell表示,公司的平台战略以开发全面的半导体 IP 产品组合为中心,包括电气和光学串行器/反串行器 (SerDes)、2D 和 3D 设备的芯片到芯片互连、先进的封装技术、硅光子学、定制高带宽存储器 (HBM) 计算架构、片上静态随机存取存储器 (SRAM)、片上系统 (SoC) 结构和计算结构接口(如 PCIe Gen 7),它们可作为开发定制 AI 加速器、CPU、光学 DSP、高性能交换机和其他技术的基础。

此前,海外公司Groq推出的LPU推理加速方案速度超越英伟达的GPU十倍,且成本仅为后者的十分之一。这一创新方案得益于其采用的静态随机存储器(SRAM),这种存储器的速度相较于GPU所使用的HBM快达20倍。SRAM,作为储存芯片的一个重要分支,能够直接与CPU进行数据交换,且访问速度极快。在追求低延迟和高速计算的人工智能等领域,SRAM的读写速度优势愈发明显。随着LPU等基于SRAM的推理加速方案的涌现,SRAM的应用领域正在不断拓展,有望进一步提升人工智能算法的运算速度,助力高效计算任务的完成。

Axelera的AIPU芯片采用了创新的内存计算技术。基于SRAM(静态随机访问存储器)和数字计算相结合,每个存储单元有效地成为一个计算单元。这从根本上增加了每个计算机周期的操作数(每个存储单元每个周期一次乘法和一次累加),而不受噪音或较低精度等问题的影响。该芯片还采用了开源的RISC-V指令集架构(ISA)。RISC-V作为一种低成本、高效且灵活的ISA,允许根据特定的应用需求进行定制。它为Axelera提供了极大的设计自由度和创新空间。

文章来自:电子发烧友

Loading

作者 yinhua

发表回复