在Google TPUAI芯片的新一代推出之后,数据中心领域的竞争愈发激烈。尽管市场前景光明,但新进入者仍面临着众多挑战。首先,他们需要解决如何处理特定问题和不可预测结果的问题。其次,他们还要应对来自大型企业雄厚财力和市场占有率较高产品带来的压力。
对于这些新兴的AI芯片设计公司来说,最大的难题之一是终端用户提供的数据不足以支持盈利。此外,在设计一个新的AI处理器时,必须考虑到灵活性问题:是否专门为单一任务设计,或是支持更多工作负载?这个问题背后存在多种解决方案,但与过去许多解决方案相比,为AI处理器找到合适的解决方案变得更加困难,尤其是在面向数据中心工作负载时。
“既需要在一定成本和时间内设计制造芯片,又要考虑成本回报问题。”Synopsys人工智能产品研发总监Stelios Diamantidis解释道,这些限制因素缩小了AI处理器潜在市场范围。
虽然最终弄清楚多少个数据中心才能实现盈利是个重要问题,但这并不能保证设计方案可行。“芯片定制化程度越来越高,以至于能够为非常特定的算法创建芯片,提供更高能效和性能,”西门子EDA战略业务发展高级经理Anoop Saha说,“但这会牺牲一部分市场,也会缩短芯片寿命。如果两年后出现了一个新算法,那为旧算法定制的芯片价值就不会如初。”
“一些边缘算法确实已经趋于稳定。这是因为业界经过多年研究,找到一些多场景适用的最佳算法,如CNN神经网络、唤醒词检测、手写识别等特定应用找到的最佳算法。”Anoop Saha补充道。
自定义优势主要在于理解面向何种工作负载——自定义确实为许多玩家带来了优势。大型企业已经组建自己的芯片部门,并为其数据中心某些高工作负载打造专用芯片。例如,如果Google将推荐神经网络视为最高工作负载之一,那么它就有必要创建专用芯片。而如果排名第二的是语音识别,再次排名第三的是YouTube视频转码,那么也会有人制作专用芯片。
然而,大多数定制都是面向推理,当这些定制晶体转向训练时,就需要浮点支持。不过,如果需要的是100%用于推理的解决方案,它们可能仅需八位甚至更低精度。如果模型固定,则进行推理基础设备上是否有意义进行定制成为疑问。大企业正在投资应用于推理的晶体解决方案,这些推理适用于它们自身在AI领域的定制化高级模型和解决方案。但如果需要处理多种应用,那么就需要更多灵活性和可塑性。
当然,对Google而言,这已是一个良性的循环。“TPU旨在满足Google内部数据中心内特定的工作负载,”Synopsys工程副总裁Susheel Tadikonda说,“第一代TPU体积大且耗电量巨大,但通过不断学习得到了改进,这正是这些TPU所做之事。”
并非每家公司都能使用Google反馈循环,不过其他公司也有其他选择。“我们发现,其中一个关键点是尽可能早地关注并重视选择正确架构,”西门子的Saha说,“所谓正确,并不是指某个人认为正确,也不是基于过去经验凭直觉做出的决定,因为现在还有太多未知数。”
决策可以宏观也可以微观,比如存储元素与计算元素差距大小,以及执行内存读取频率。这是一个重要的问题,因为读取写入直接影响整体能效。业界正在寻找新的架构,没有人知道什么样的架构才真正有效。不过可以确定,要有一定的可塑性,而且在决定架构之前,有足够市场数据来支撑。在硬件和算法迭代速度快的情况下,硬件和软件发展速度决定了从他们购买硬件中赚钱所需时间,以及愿意支付价格,同时限定了开发总成本。
那么,数据中心使用硬件(即chip)的寿命又长吗?
通常情况下,一块chip或电路板寿命约三到四年。一部分激进的大型数据库可能会在这一时间段内更新,而另一部分则可能持续使用更长时间。在人工智能领域,如果关注Google TPU发布新闻,可以看到六年左右期间,每隔一年左右就会发布一次新的TPU版本,以针对快速变化的人工智能等特殊类型操作优化原有的硬件结构。
换一种角度看待,即使如此,每18个月就有一次机会进入到那些不断更新换 代机器的心脏— 数据库系统中去。
"想要搅动这个市场并不容易," 西门子的Saha提及," 有两个重要因素——更换现有数据库中的Chip数量以及添加新的Chip数量。我看见几乎所有的大型数据库都尝试着更新它们的事物,而几乎所有参与创造数据库Chip的大型企业都同样拥有相同的一批客户."