Kneron发布新一代终端人工智能处理器 智能应用 影音
工研院
Event

Kneron发布新一代终端人工智能处理器

  • 郑斐文台北

耐能智能(Kneron)近日参与在上海举行的ARM人工智能开发者全球峰会,以「可重组算法在AI芯片中的应用」为主题发表演说,会中发布Kneron新一代终端人工智能处理器系列NPU IP KDP Series。

Kneron第二代NPU IP包括三大产品,分别为超低功耗版KDP 320、标准版KDP 520、以及高效能版KDP 720。全系列产品的功耗小于0.5瓦(W),采用新的架构设计让运算更具弹性,整体运算效能相较上一代产品大幅提升达3倍运算能力(peak throughput)最高可达5.8 TOPS(每秒万亿次运算)。

Kneron创始人暨CEO刘峻诚表示,Kneron推出为终端装置所设计的人工智能处理器NPU IP后,其超低功耗的优势受到市场高度关注。Kneron新一代NPU产品在诸多方面都有显着的突破,基于第一代产品的优势,Kneron改善数据运算流程、提升整体运算效能与储存资源使用率,同时针对不同神经网络模型进行优化,让NPU可以更广泛地应用在各种终端装置,并满足更复杂的运算需求。

Kneron NPU IP可应用在智能手机、智能家居、智能安防、以及各种物联网设备上,让终端装置在离线环境下就能运行各种神经网络。Kneron第二代NPU IP采用新的交错式运算架构(Interleaving computation architecture)设计,缩短运算流程和提升效率;深度压缩(Deep compression)技术让压缩功能从模型层级深入至数据和参数层级,使压缩率再提升。

动态储存资源配置功能提升储存资源利用率,却不影响运算效能。此外,支持更广泛的卷积神经网络(Convolutional Neural Networks;CNN)模型,并针对各种CNN模型分别进行优化,在不同神经网络模型下,可提升1.5倍到3倍不等的效能。

第二代NPU IP-KDP Series交错式架构让神经网络架构中主要的卷积(convolution)与池化(pooling)运算可平行进行,以提升整体运算效率。在新的卷积层中,还可同时支持8bits与16bits的定点运算(fixed point),让运算更有弹性;第二代NPU IP-KDP Series的深度压缩技术,不仅能执行模型压缩,还能对运行中的数据和参数(coefficient)进行压缩,减少存储器使用。

模型大小可压缩至50分之一以下,准确度的影响率小于1%;其动态储存资源配置,让共享存储器(Shared memory)和运作存储器(Operating memory)之间可以进行更有效的资源配置,提升储存资源利用率的同时却不影响运算效能;第二代NPU IP-KDP Series支持更广泛的CNN模型,包括Vgg16、Resnet、GoogleNet、YOLO、Tiny YOLO、Lenet、MobileNet、Densenet等,而且针对不同CNN模型分别进行优化,在不同神经网络模型下,相较上一代产品提升1.5倍到3倍效能。


关键字