在追求高性能的同时,低功耗存储器成为了推动人工智能发展的关键因素。随着AI应用在汽车、移动设备和边缘计算等领域的不断扩展,存储器不仅需要提供高速数据处理,还要确保能效比(Power, Performance, Area)的优化。
尽管片上SRAM和片外DRAM仍是主流,但新技术如HBM2和GDDR6正在改变游戏规则。这些技术通过堆叠模块或垂直增加密度来提升存储容量,同时减少延迟和功耗。在手机市场中,天玑与骁龙之间的选择也被看作是对存储器类型和配置复杂权衡的一种体现。
为应对不同应用市场的需求,芯片设计人员面临着是否采用共用内存以降低成本还是增加不同类型内存以提高性能并降低功耗的抉择。安全性也是一个重要考量点,不同市场有不同的设计要求。
解决内存问题的一个方法是片上存储器,它可以最大程度地减少数据搬移,从而突破内存瓶颈并降低功耗。“虽然在内存中进行计算的想法可能是日益增长的趋势,但实际发生的情况似乎大不相同。”Cadence Digital&Signoff Group高级首席产品经理Dave Pursley表示。
尽管市场出现了新的变化,但DRAM仍然是最经济且可靠的选择,其特性包括高密度、架构简单、低延迟、高性能以及耐用性和低功耗兼备。然而,DRAM密度增速正在放缓,而HBM2等新架构正通过堆叠模块实现垂直增加密度,这使得DRAM更接近处理单元。
另一种挑战是在7nm以下尺寸下进行数据操作时,由于线路中的RC延迟会产生更多电力消耗。不过,有些较慢但带宽高的大型外部数据使用方式能够节省能源,并与高速GDDR6一样快。这一切都取决于多个因素,如设备平均售价以及所选记忆体类型。
对于手持移动设备来说,更具极端效率能力的是那些专门针对边缘设备使用电池供电的小型化记忆体。此类记忆体具有极高效能,可以在一定程度上提升电池供电设备上的工作效率及数据传输速度,并能迅速切换到更高性能/更大功率模式满足手机等产品需要。在待机状态时,它们还能够消耗极少能量,以满足平板电脑等产品需求。此外,这些小型化记忆体支持多种封装方式,可集成至PCB上,以满足平板电脑及其他消费品类别需求数量大的内部空间配置需求。
开发这些小型化记忆体是一项巨大的挑战,因为它们必须支持广泛范围的事务速率,而且这通常由几个主要应用驱动,因此它必须面向一个拥有足够大用户群体的大众行业。如果我们回顾历史,我们可以看到手机行业成功地促进了这种新技术。制造商希望获得既有良好性能又能节约能源以延长电池寿命的人工智能芯片。而其他寻求利用这些便携式快速芯片公司将感到幸运,因为他们受益于他人的创新努力——即便不是所有客户都需要全速运行,就像一些部件没有全速运行那样,也有人愿意购买那些价格相对便宜但功能稍逊一筹的人工智能芯片,这就是所谓“binning”(合并)过程允许这样的情况存在,即使某些产品只处于合格标准之列,它们也都是合格品,只不过其表现范围略有差异而已!
人工智能领域几乎每一项新技术都依赖于强大的计算能力,而其中核心之一就是创造出既高速又微弱开关频繁保持稳定信号完整性的非易失性RAM(NVRAM)。虽然这个目标并不总是有效,因为物理限制意味着空间有限。但它解释了为什么训练AI模型用于超级计算机而不是终端推理设备时,对硬件资源如此敏感,以及为什么设计师尝试减少从外部系统到内部系统交互次数,或至少限制它们之间距离尽可能短,从而加快通道传输速度来解决这一问题,无论采取何种策略,都涉及竞争激烈的地图争夺战,其中包括来自各种来源:DRAM-GDDR-HBM3-4-5-6甚至未来可能出现的地球计划!“从工程角度考虑,”Rambus杰出的院士Steven Woo说,“GDDR看起来就像是其他类型如DDR-LPDDr一样,你可以将其集成到标准PCB板子里,用类似的制造工艺生产;HBM是一个更加先进一点儿的事情,它涉及堆叠、插入者(interposers)”,因为每个HBM栈都会拥有一千根连接,所以你需要大量连接速度慢,每个连接距离很远,比起PCB来说处理能力远远超过这个数量,所以有些公司开始使用插入者,因为这样做可以让导线蚀刻得非常接近,与条形码相似,让你获得更多连接点!”
此外,在全球范围内,无论哪个国家或地区,将如何影响AI发展?答案很简单:无论如何,他们都会继续前进,在未来的几年里,我们将看到AI变得越来越强大,而我们的生活因此也会变得更加舒适。当我们考虑到所有这些变革后,我们真的应该庆祝一下人类智慧力量,那么让我们看看未来会发生什么吧!