高通的秘密计划:2022年进口芯片金额揭晓,AI开发者期待中的“一次开发,随处运行”
如果你问AI边缘芯片公司最难的是什么,他们大概率会说落地的应用场景太多、太复杂。
如果你问开发者使用AI芯片最难的是什么,他们可能会说没有统一的开发平台。
如果你问消费者使用AI的最大感受是什么,他们或许会表达一些对AI智能程度的不满。
AI已经在智能手机中普及,但AI的体验还不够完善,AI的功能也还不够强大。想要实现体验优秀的AI功能和产品,一定需要从底层的硬件到上层的软件和系统深度融合。
所有AI芯片公司都在大谈自家产品优势,但即便对于有能力和经验的大型企业级用户,想要将一个应用程序化用于不同的设备总是有许多迁移工作,这也在很大程度上阻碍了技术创新与市场扩展。
为了解决这个问题,高通推出了它最新的人工智能软件栈(Qualcomm AI Stack),包括硬件、软件工具,让原厂商或者开发者的单次投资,就可以应用于智能手机、物联网设备、汽车、高性能计算机(HPC)、云端服务以及移动个人电脑等多个领域。
这是足以让每位关心人工智能发展趋势的大师们兴奋的事情——因为这意味着了一次编程,一切皆可实现。然而,要达到这一目标仍面临众多挑战。高通技术公司产品管理副总裁 Ziad Asghar指出,“不同场景下的功耗需求、模型类型以及部署方式各异,不同业务对于准确性、能效以及实时性等方面平衡要求也有所区别。”
为了应对这些挑战,高通最终推出了一个全面的人工智能软件栈组合,从底层硬件协同工作至上层工具优化,以此来实现跨平台运行。这是一项极其复杂且具有挑战性的任务,它需要支持各种操作系统,如Android、Windows、Linux,以及专门针对联网车辆环境设计的一些特殊系统。此外,在系统软件层面,还必须提供完整支持包括接口标准加速器驱动仿真支持等。在为开发人员准备好库与服务方面,则需要数学库编译器虚拟平台分析器调试器编程语言核心库等。
Ziad Asghar解释道:“基于我们的Direct AI引擎,上述这些高通人工智能软件都可以实现。” Direct AI引擎被视作一个相对较低级别的小型代码库,可以直接编辑近距离模型或硬件位置,以此充分释放硬件性能并保证最佳表现。此之上的还有更为广泛使用的人工神经网络处理SDK ONNX runtimes TF Lite Micro Direct ML。最后,还有一系列框架如TensorFlow PyTorch ONNX。
除了基础设施支持,比如Prometheus Kubernetes Docker之外,该套装还包含了诸如Snapdragon Ride SDK 智能多媒体SDK 以及XR 开发者平台这样的特定解决方案。这使得高通能够建立起统一而强大的生态圈,并且能够通过一次投资获得更多可能性,而不是局限于单一设备或领域。
Ziad Asghar表示:“要真正实现任何一种只需进行单一终端上的某种特性就可轻松部署到其他终端的情形,我们必须确保所有相关部分共同协作以达成最高效率。”因此,即便刚刚发布出的这一计划,也还有很长的一个过程待完成,因为它涉及大量细节调整,与客户紧密合作才能真正成为现实。这是一个既需要时间又需要持续投入的问题。但若成功,其意义将超越仅仅是技术路线图的一部分,更可能代表着巨大的市场成功关键之一。