芯片的秘密层为什么存储器成了AI发展中的绊脚石

在芯片的秘密层里:存储器成为AI发展绊脚石的原因

边缘计算性能的提升给存储器设计、类型选择和配置带来了挑战,这也导致了不同应用市场中需要进行更复杂的权衡。芯片架构正在与新市场一起发展,但数据在芯片、设备之间以及系统之间如何移动并不总是很清楚。汽车和AI应用的数据正变得越来越多和复杂,但芯片架构在处理时有时不清楚如何优先处理数据。这让芯片设计人员面临抉择,是选择共用内存降低成本,还是增加不同类型内存提高性能和降低功耗。

所有这些都是以安全为前提,并且不同的市场设计要求也不一样。比如,汽车中的各种图像传感器(如激光雷达和摄像头)的大量数据需要在本地处理。AI芯片则希望性能能够提升100倍。

解决内存问题有一些方法,其中一种是片上存储器,也就是将存储器分散地集成在运算单元旁,最大程度减少数据搬移,这种方法的目标是通过减少负载和存储数量来突破内存瓶颈,也能降低功耗。

“虽然在内存在进行计算的想法可能是日益增长趋势,但实际发生的情况似乎大不相同。” Cadence Digital&Signoff Group高级首席产品经理Dave Pursley说,“SRAM和DRAM仍然是主流。”

尽管市场出现了新的变化,但片上SRAM和外部DRAM仍然占据主导地位。已经有专家预测DRAM多年后将“死亡”,但它仍然是最经济可靠的一种选择。由于其高密度、简单架构、低延迟、高性能及耐用性,它们兼具了两个特点。

然而,随着技术进步,对于怎样优化每个部分以达到最佳效果,我们开始更加关注到另一个重要方面——效率。在这个过程中,一些关键因素被逐渐放大,如功耗控制与优化,以及对物理尺寸限制所做出的调整,以满足更紧凑设计需求。

为了应对这一挑战,一些制造商开始开发出新的记忆技术,比如HBM(堆叠式动态随机访问记忆体)。这种技术可以提供更高带宽,同时减少空间需求,从而使得更多资源可以用于核心功能,而不是仅仅为了交换信息而浪费掉。而另一方面,由于GDDR6具有较好的速度表现,其作为一种替代方案也受到了广泛关注,因为它可以提供极佳的人工智能训练能力,无论是在手机或PC端都非常实用。

当然,不同应用对于这两者的需求也有所区别。如果你想要追求的是即便是在电池供电环境下也能保持高速运行,那么使用GDDR6会是一个明智之选。但如果你需要的是更大的容量,那么HBM就显得尤为重要,因为它能够提供远超过传统RAM标准的大容量空间,从而支持那些依赖大量数据输入输出操作的情景。

最后,让我们回到文章开篇的问题:为什么这些技术对于人工智能来说如此至关重要?答案其实很简单:它们简直无法避免。在许多场合下,如果没有足够快或足够强大的计算能力,你无法完成任务;而且,在某些情况下,即使拥有这样的能力也是不足为道,因为其他因素(比如能源消耗)的限制意味着不能永远保持这样的状态。此外,与AI相关联的一个根本问题还涉及到自动化控制系统,它们必须能够快速适应不断变化的情况并做出反应,而这通常意味着需要一套既快速又灵活又可靠又省电的地方性硬件解决方案来支撑他们。这就是为什么从工程师到消费者,每个人都期待看到哪怕是一丁点小小改进,使得我们的生活方式更加接近科学幻想电影里的那样,有无数次惊喜等待我们去发现,而且每一次探索,都要跨越那座看似坚不可摧但实际上脆弱至极的心理障碍——真正理解人类活动背后的深层结构是什么样子。

标签: 智能输送方案

猜你喜欢