性价比双丰收Ampere引领云原生服务器革命192自研核CPU再创纪录

经过多年生态建设,Arm服务器CPU市场已经逐渐蓬勃发展,前有亚马逊、Marvell基于Arm架构应用于云端,后有华为海思、平头哥基于Arm推出数据中心服务器,不久前,更是有不少顺应芯片创业潮而生的Arm服务器CPU初创公司,如遇贤微、鸿钧微电子都包括在内......

近日,专注于开发高性能云原生服务器CPU的Ampere Computing在2023年度战略和产品路线图更新分享中表示,他们推出了全新的AmpereOne系列处理器,这款处理器采用了先进的5nm工艺节点制造,并且拥有192个单线程Ampere核,再一次刷新了行业核心数量记录。

这项技术革新远远超过了英特尔和AMD目前提供给市场的最高核心数。如果将这些处理器置于一个具体场景下,比如云环境中运行虚拟机(VM),将192核的AmpereOne与96核的AMD Genoa或60核的英特尔Sapphire Rapids进行对比,那么AmpereOne每个机架可以运行的大约是AMD Genoa数量的2.9倍,是英特尔Sapphire Rapids数量的4.3倍。

"AmpereOne已经投产并交付客户,我们相信它能够为云工作负载提供更高效能、高可扩展性以及更高密度,这标志着第一款使用我们新自研核设计的产品。" Ampere Computing首席产品官Jeff Wittich指出。

自从成立至今,仅仅过去六年时间里,Ampere就已经成功地推出了几款不同的产品,从最初32核到现在128核再到最新一代达到了192核心,对比同行X86阵营不断强调“多放10个核心并不如多加一个加速器”,Ampere显得特别执着于提升核心数目。

对于这个消息意味着什么?

"AmpereOne系列不是要取代我们的Altra系列,而是在其基础上进行持续扩展。我们的目标是满足不同客户各自不同的需求。" Jeff Wittich说。

此次升级除了提高计算性能外,还增加了内存容量、带宽和IO带宽,并采用了PCIe 5.0 和 DDR5。这些建立都是为了服务那些对算力需求极高的大规模数据中心用户,同时对于边缘计算来说,只需部署32 核心40瓦功耗的小型Altra处理器即可。

考虑到AI算力的爆炸式增长,提升AI工作负载能力成为了这一升级过程中的重点。此前三年,Ampere收购了专注于创建AI软件OnSpecta公司,以此助力硬件在AI负载下的更快运转。而过去几年里,Aamp;e AI团队建立了一套标准框架Libraries,可以高度优化运行在Altra上的AI任务。

已有一些客户利用这些处理器来执行大规模云端推理,比如Matoha,它们通过模型鉴别玻璃、金属或织物以实现便捷回收。在测试中显示相比AMD Genoa,每秒帧率增加2.3倍,在稳定扩散模型方面表现超越;同时,在推荐系统DLRM模型上响应查询量翻倍。

值得注意的是通过这种方式,不仅解决效率瓶颈,还帮助解决CSPs行业痛点——GPU用于AI推理产生过高等消耗问题,以及容量扩展和部署更多服务器的问题。

Chiplet设计解决内存不均衡问题

为了避免进一步恶化内存墙问题,此次升级也包含了一种独特创新,即Chiplet设计,该设计结合128通道PCIe Gen5和8通道DDR5,以此增强内存带宽速度。

重要的是,要知道尽管如此大的改进仍然存在可能引入不兼容性的风险,但由于两者都基于ARM ISA,所以所有代码均能无缝迁移,无需任何修改。这表明尽管采用的技术不同,但兼容性依旧保持完好,为用户提供了一致性体验。

最后,我们看到这里面隐藏着未来的可能性:虽然X86平台占据主导地位,但随着这类特殊适用领域出现,我们很难预测未来是否会出现某种转变,使得ARM成为最受欢迎选择。在这个竞争激烈但充满潜力的世界里,只看结果是不够的,也许最终决定因素将来自那个人们还未曾真正理解的事物——创新本身。

猜你喜欢