UWB芯片革命将引领AI突破内存极限震撼市场

UWB芯片革新:探索AI内存极限突破之路

在AI热潮的浪潮中,科技巨头们纷纷投入AI芯片研发,而算力提升后,内存不匹配成为了阻碍AI发展的关键。2017年成立的初创公司探境科技提出了SFA架构,以数据优先的方式解决了内存墙问题,但事实是否如此?

【 图片来源:supernovainvest】

真正的问题是内存墙

高算力的推动下,AI芯片公司不断更新产品。不过,没有严格定义标准,使得“AI芯片”这个概念变得宽泛。机器学习尤其是深度学习成为热点,因此这些芯片都被称为AI芯片。

CPU、GPU、FPGA、ASIC特点【 图片来源:hackernoon】

这意味着现在重要的是满足机器学习需求。但即便经验丰富的Arm,也意识到了走弯路。Dennis Laudick表示:“我们最初看到机器学习时,我们从已有处理器开始,但最终发现不是处理问题而是数据问题。”

深度学习算法具有高并发、高耦合特点,对数据提出了极高要求,这导致了带宽和功耗瓶颈。

越来越多的人意识到,真正的问题不是计算,而是数据。与数据相关的带宽和功耗瓶颈,被称为存储墙。

4种常见解决方法

加大外部存储带宽,如HBM2降低DDR访问。

直接在芯片放入大量分布式SRAM抛弃DDR。

算法层面简化,比如二值网络,但以精度和应用范围为代价。

在存储单元内部设计计算单元进行存算一体化(In Memory Computing)。

现有方法未能成功解决内存墙问题,其中原因之一在于绝大部分基于类CPU架构,不注重对资源使用调度依赖编译器或传统缓冲管理。

SFA架构如何突破?

舍弃冯诺依曼架构无疑更好,但难度也很大。不过,北京探境科技以此为基础重新思考了计算与记忆关系,以记忆驱动计算设计了全新的SFA结构——Storage First Architecture。

CEO鲁勇解释:“主要有两方面,一方面团队成员平均15年以上经验,有足够能力,同时团队成员也有挖掘核心本质思路能力。”

不同于常规方法,SFA以记忆调度为核心,将数据搬移过程中的计算作为演变完成。

“具体来说,SFA架构首先考虑的是数据,然后再把算子交给它。”鲁勇进一步解释。

完全舍弃冯诺依曼面临挑战但涉及硬件核心点等难题,却设计出非常精巧且针对性的图计算基础解决这些难题。这一点与Lecun所宣称所有神经网络都是图计算不谋而合。

难题突破之后,SFA具备哪些优势?首先PPA取得巨大突破,可降低10~100倍数据访问可降低28nm工艺条件下系统能效比达到4T OPS/W利用率超过80%DDR带宽占用率降低5倍。此外支持任意神经网络灵活性强既可以推出本地或云端推理亦可用于云端训练终端推理加训练亦可根据最终产品定位调整。

除了内存方面,在算力提升上也进行相应优化。不仅可以满足多精度还能自适应稀疏化处理,不需要离线剪枝压缩处理。在安防监控、工业制造自动驾驶语音人机交互市场落地优势明显吗?鲁勇指出尽管看似差异较大但实际上共享同一技术栈因此落地优势仍然存在。

标签: 机器人

猜你喜欢