Kneron推出低功耗人工智能专用处理器IP 智能应用 影音
hotspot
DForum0515

Kneron推出低功耗人工智能专用处理器IP

  • 郑斐文台北

耐能智能(Kneron)发布Kneron NPU IP神经网络处理器系列(Kneron NPU IP Series),为针对终端装置所设计的专用人工智能处理器IP。Kneron NPU IP系列包括3款产品,分别为超低功耗版KDP 300、标准版KDP 500、以及高效能版KDP 700,可满足智能手机、智能家居、智能安防、以及各种物联网装置的应用。全系列产品特性低功耗、体积小,且提供高运算能力。Kneron NPU IP的功耗为100毫瓦(mW)等级,针对智能手机脸部识别专用的KDP 300,功耗甚至不到5毫瓦。

Kneron创始人暨CEO刘峻诚表示,要在终端装置上进行人工智能运算,同时满足功耗与效能需求是首要考量,Kneron NPU IP实现了这样的目标,为终端人工智能带来革命性的发展。Kneron自2016年推出首款终端装置专用的人工智能处理器NPU IP后,就不断改善其设计与规格,并针对不同产业应用进行优化。Kneron很高兴推出全系列新一代产品,同时宣布KDP 500已获得客户采用,将于第2季进入量产制造(Mask tape-out)阶段。

Kneron NPU IP是针对终端装置所设计的专用人工智能处理器,让终端装置在离线环境下,就能运行 ResNet、YOLO等深度学习网络。Kneron NPU为完整的终端人工智能硬件解决方案,包含硬件IP、编译器(Compiler)以及模型压缩(Model compression)三大部分,可支持各种主流的卷积神经网络(Convolutional Neur al Networks;CNN)模型,如Resnet-18、Resnet-34、Vgg16、GoogleNet、以及Lenet等,以及支持主流深度学习架构,包括Caffe、Keras和TensorFlow。

Kneron NPU IP功耗为100毫瓦等级,超低功耗版的KDP 300甚至不到5毫瓦,全系列产品的每瓦效能在1.5 TOPS/W以上。在架构设计上,运用卷积核拆分(Filter decomposition)技术,将大卷积核的卷积运算区块分割成多个小卷积运算区块分别进行运算,然后结合可重组硬件卷积加速(Reconfigurable Convolution Accelerating)技术,将多个小卷积运算区块的运算结果进行融合,以加速整体运算效能。透过Kneron先进的模型压缩(Model compression)技术,则能将未经优化的模型压缩数十倍。存储器分层储存技术(Multi-level caching)可减少占用CPU资源以及降低数据传输量,进一步提升整体运作效率。此外,Kneron NPU IP能结合Kneron影像识别软件,提供实时识别分析、快速回应,不仅更稳定,也能满足安全隐私需求。由于软硬件可紧密整合,让整体方案体积更小、功耗更低,以协助产品快速开发。


关键字