经过多年生态建设,Arm服务器CPU市场已经迅速壮大,前有亚马逊、Marvell基于Arm架构在云端应用其技术,而后有华为海思、平头哥等公司也紧跟其后推出了数据中心服务器。近年来,更是有不少新兴的初创公司,如遇贤微、鸿钧微电子,他们顺应着芯片创业潮而生的Arm服务器CPU产品也纷纷问世。
最近,一家专注于开发基于Arm架构的云原生服务器CPU的Ampere Computing在2023年的战略和产品发布会上展示了他们最新的成果。这次,他们推出了全新的AmpereOne系列处理器,这款处理器采用了5nm工艺制造,并且拥有192个单线程核,这一核心数量远超过英特尔和AMD当前市场上的最高核心数。如果将这些处理器用于云环境中运行虚拟机(VM),那么它们每个机架可以运行的虚拟机数量将是AMD Genoa的2.9倍,是英特尔Sapphire Rapids的4.3倍。
“AmpereOne现已投产并交付给客户,我们相信这款产品能够为云工作负载提供更高性能、高可扩展性以及更高密度。”Ampere Computing首席产品官Jeff Wittich说到。
自从成立以来,Ampere已经发展了将近6年的时间。在此之前,他们推出了几款不同的产品,其核数从32核到128核不等,但今年他们又进一步提升到了192核,对比隔壁X86阵营中的英特尔至强开始强调“多放10个核数,不如多放一个加速器”,Ampere似乎执着于核心数的提升。
对于数据中心而言,这意味着什么?
”全新推出的AmpereOne系列处理器并不是要取代我们之前的一些系列,而是在它们基础之上进行持续扩张。我们的出发点是希望能够满足不同客户不同需求。” Jeff Wittich说到。
除了拥有更高性能外,这些新型处理器还扩展了内存容量、带宽和IO带宽,采用了PCIe 5.0 和 DDR5。这些新增功能主要是为了满足对算力需求更高的人群,为大规模数据中心服务,同时对于边缘计算场景,只需部署32核、功耗40瓦的小型化Altra处理器就能满足需求。
考虑到生成式AI算力需求爆发,对AI工作负载需求也是此次升级重点。
三年前,Ampere收购了专注于创建AI软件的OnSpecta公司,现在他们已经建立了一套标准框架Libraries,以提高硬件在AI负载下运行速度。此外,还有一些客户正在使用这种针对AI推理设计的大规模云集群,比如Matoha,它们利用这些模型来鉴别玻璃、金属或织物以实现便捷回收。
测试显示,与AMD Genoa相比,在图像帧率方面,每秒钟增加2.3倍;在稳定模式下的扩散模型中表现优异;以及推荐系统DLRM模型查询响应能力也达到两倍以上。而通过使用GPU进行AI推理所产生的问题,如高能耗,以及容量扩展和可部署服务器数量限制,都被解决得体现在这里。
Chiplet设计解决内存不均衡问题
为了避免内存墙问题更加严重,此外还配备128通道PCIe Gen5和8通道DDR5,以提升内存带宽并获得更快速度。
值得注意的是,该设计还大量采用Chiplet结构,以解决内存不均衡问题。
”我们在Chiplet设计中实现了一种特殊拓扑结构以及单一计算裸片,同时还有单一大网格结构。这使得我们能够为客户提供平衡性的高性能。” Jeff Wittich解释道。
简单来说,就是一种大的计算Chiplet被许多控制Chiplet包围,并且64MB System Level Cache(系统级缓冲)位于计算芯片上,从而简化访问时间与系统级缓冲之间未平衡的问题,无需引入额外HOPs(跳转)。
那么,即使采用了自研核心和Chiplet设计是否会导致与过去Neoverse核心相同但不同于Altra处理器出现兼容性问题?
Jeff Wittich表示,因为所有代码都可以直接迁移到这个新的平台,所以不会出现任何兼容性问题。”
通过这一系列动作,针对云原生研发生产的一款ARM服务器CPU,再次证明ARM ISA在数据中心中的潜力。不过面对X86已建立起来的地位,为云原生而生的ARM仍然需要走很长的一段路。而AMPERE也表明,他们希望继续拓展合作,让自己的产品触及更多用户。(来源:雷峰网(公众号:雷峰网))