ARM揭示终端装置机器学习的整体策略 智能应用 影音
DForum0522
ADI

ARM揭示终端装置机器学习的整体策略

  • 李佳玲台北

ARM为各种终端装置提供ML解决方案。
ARM为各种终端装置提供ML解决方案。

凭藉着拥有业界最强大的处理器生态系统之一,ARM扮演着重要角色以加速机器学习(ML)在终端装置的广泛采用,同时该公司现正全力为ML工作负载强化其CPU效能与软件支持。对此,ARM副总裁暨机器学习部门总经理Jem Davies日前清楚地描绘了市场前景、挑战、以及ARM因应此庞大商机的整体策略。

ML导入终端装置的趋势才刚开始

ARM副总裁暨机器学习部门总经理Jem Davies。

ARM副总裁暨机器学习部门总经理Jem Davies。

「我们认为ML是现代电脑和处理器领域最令人振奋的进展,」Jem Davies表示。「随着机器学习在各种装置上的爆炸成长,我们看到了强劲的动能,而且在所有ARM服务的市场中都出现了非常有趣的使用案例。」

他认为,ML的一些最有趣的案例来自于IoT领域,利用ARM Cortex-M微控制器系列等传统上非常小型的处理器。例如,智能气喘吸入器等医疗装置的嵌入式应用、以及从工业机器人、到语音助理、更智能的家庭保全系统等等,甚至像数码电视,也开始纳入场景识别、画质增强和手势识别等功能。

当然,其他的有趣案例还包括,广受瞩目的自驾车和驾驶辅助系统、在智能手机中,则是透过导入ML提升各种应用程序的效能,如更智能的游戏引擎、更丰富的社交媒体,以及直接建置到操作系统的工具程序,如预测文字和语音助理等。

就ARM来看,终端装置对ML的强烈需求现在才刚开始,预计在未来几年将大幅进展,Jem Davies指出,「使用案例正在快速增加,随着业者更了解演算法以及开发社群能够真正发挥ML效益,创造力的爆发将在未来几年出现。」

但是,挑战是...

然而,机遇总是带来挑战。ARM的挑战在于确保客户拥有更好的CPU以及相关的软件和工具,以满足今日他们对ML的开发要求,同时还要投入新产品开发,例如ML专用处理器,好为明日的需求提供更多功能。

但在客户方面,Jem Davies看到了一些纷乱的情况,「现在,我们做很多事情只是试图厘清业界对ML的错误认知,因为市场上有太多的混乱和错误信息了。」

「一、两年前,人们普遍认为,如果想在装置上导入ML,一定得透过ML专用处理器——这是由专用处理器业者推动的观点——所以我们常被问到哪种处理器最适合ML。但事实上,这取决于你的设计考量。因此,我们花了很多时间来解释,小型CPU、大型CPU、多重处理器CPU、GPU或ML处理器在何种情况下最能满足ML的设计需求。」

另一方面,软件开发人员面临的最大挑战是他们应采用哪种硬件平台/处理器,才能使其软件与装置具有最广泛的兼容性。此外,ML模型已成为装置开发的重要一环。过去几年来,业界已经投入大量工作,使ML模型能更容易被理解与采用。

ML正全面影响ARM的所有产品

Jem Davies认为,ML推动了软件的变革,而ARM的处理器和产品都是与执行软件相关的。因此,ML几乎影响了所有的ARM产品。

Jem Davies表示,「你可以在我们过去两年发布的CPU中看到这一点,新款CPU都已针对ML工作负载进行效能增强。通常,每一时代都是4倍甚至10倍的升级。这也扩展到了我们最新的GPU,以及我们的Cortex-M系列。我们最近发布的Helium产品,能为微控制器提供15倍的ML效能提升。ARM专注于提供各种处理器,来为客户提供全面性的价格、效能和功率组合。如果市场上有大量的ML工作负载,或是对ML功率效率有更高的要求,我们还能进一步延伸此作法,为所有市场提供互补的ML处理器。」

他解释说,ARM的策略是为CPU和GPU架构增加功能,以在未来数年支持ML需求。此外,ARM还推出了一系列可扩展的NPU(神经网络处理器),为各种市场提供更高效的ML处理,包括从汽车的高效能要求,到最小型的低功耗嵌入式微控制器。正如他所提到的,为ML选择处理器时,并没有一体适用的方法,ML将继续在各种处理器上执行,而不仅是NPU。

ARM在ML新时代的优势

ARM可说是提供了现代运算的核心架构,内建ARM核心的装置无所不在。凭借此一优势,Jem Davies指出,「当ML这类的破坏式创新出现时,开发人员将首先利用我们的架构进行创新。我们最近进行了一项调查,藉以了解ML是采用哪种处理器来执行。结果显示,最受欢迎的是ARM Cortex CPU架构,其次是ARM Mali GPU架构,这对我们是一个重大的优势——它使我们能贴近开发人员,了解他们的需求,以及开发新产品时的想法。ML带来的产业移转是几年前开始的,我们已看到它在各个领域蔓延。这也是Project Trillium应运而生的主因,以确保ML观点能全面贯彻在我们的业务中。」

他解释说,Project Trillium涵盖ARM和第三方硬件IP,以及执行ML工作负载和应用程序的软件。其中包括CPU和GPU强化、互补性ML处理器、以及在ARM装置上实现ML所需的工具、生态系统和大量教育资源。

由于ML基本上是一个软件问题,因此ARM也大量投资于支持ML开发人员。ARM NN提供了一个框架,允许ML工作负载可轻松地在 CPU、GPU、NPU和其他IP模块等各种处理器上执行。

Jem Davies表示,「我们投入超过120个工程年度的资源开发ARM NN,并已将其捐赠给Linaro。现在,透过开源社群,我们的合作夥伴也可为ARM NN做出贡献,相信它将成为跨产业的开放标准,不受任何一家公司的控制。」

透过对工具和生态系统支持的大量投资,ARM的目标是为各种终端装置提供最广泛、最全面的ML解决方案,并希望在未来几年产生显着成果。



关键字