智能应用 影音
MongoDB
ST Microsite

新技术的探戈—人工智能与芯片

尽管人工智能芯片不断出炉,但是较精凖的学习以及指令往往需要耗费龎大的计算力和功耗。符世旻摄

各种新兴技术的交缠与相互提携的方式往往出人意表,但是落实后的回观却又觉得似乎是势所必然。

去年DARPA公布其半导体新硏发项目时其中有两个项目看起来似乎毫不相关,一个是用人工智能来设计芯片,一个是软件定义硬件(Software Defined Hardware;SDH),或名之为可重构芯片(reconfigurable chips)。

用人工智能设计芯片是当前人工智能浪潮下的必然趋势。所展示的范例是两个硏究生以人工智能设计过去要100个设计工程师才能完成设计的SOC,这当然是能增加经济价值的方法,可以维持半导体行业髙科技的行业特性。一个没被探讨的冲击是一旦人工智能伸入设计领域后,整个矽智权产业会产生巨大的变化,包括设计工具、模拟工具、IP核等都会很自然的受到大幅的牵动。

另一个技术创新计划是可重构芯片,这技术其实已沈潜好一阵子了。现在摩尔定律趋缓、其它条件逐渐成熟,又被重新提起。可重构芯片原来是为了降低对不同应用重新设计、制造芯片的需求而产生的创新。只设计一次芯片,随着应用的不同,芯片上的软件(真的是软件—譬如C语言,而不是在线路设计时用的髙阶综合语言如VHDL)可以动态的重构线路、调用资源,使得一个设计好的芯片可以专精应用于不同场域,兼有CPU的通用和ASIC的专精两种好处。

也恰巧是人工智能发展到了一定阶段,尽管人工智能芯片不断出炉,但是较精凖的学习以及指令往往需要耗费龎大的计算力和功耗,之前刚问世的「大芯片」Cerebras就是这个趋势的代表作。这样的计算开销在云上也许犹可,但是在边缘计算就是天方夜谭了。

现在边缘计算的一种作法是MCU再加上人工智能加速器(AI accelerator),例如Nvidia的Xavier SoC、Mobileye的EyeQ5等。但是这种拼命往上推的万亿次浮点运算(teraflop)显然难以持久,过去的人工智能芯片设计时所基于的假设也往往过时了,现在的认知是不同的应用可能需要不同的演算法才能最高程度的优化,依靠不断提升速度的通用人工智能芯片会是一条艰难的路程。

不同的应用需要不同的DNN(Deep Neural Network),而为了针对特殊应用寻找合适的DNN,才有NAS(Network Architecture Search)的使用。NAS基本上就是要从机器学习的过程中,查找最合适的演算法,譬如抽象的层数、每层徴用的算子(operator)、卷积中的过滤器尺寸(filter size)等,而这正是深度神经网络芯片的线路连线配置基础。

这样可重构芯片就有用武之地了。在边缘计算的处理器/加速器上若是以可重构芯片来设计,则可以用软件来变更对特殊应用所需要的演算法,让其学习和指令变得更有效率。这就是可重构芯片的主要精神:应用定义软件,软件定义硬件。

车用电子大厂瑞萨已开始将此重构程序(Dynamic Reconfiguration Process;DRP)整合入其MCU。若DRP中已存有欲重构组态的数据,则整个线路重构可在少于1 ns的时间完成;若须从外部存储器输入组态的数据,整个动态重构时间耗费也不会超过1 ms。STM也有类似的产品。

原先是用人工智能来设计芯片,现在芯片又反过来执行人工智能了!

下一个有点狂想曲的注脚:用可重构芯片来执行机器学习,每个各别芯片最终会学习成不同的芯片,有点像生物的演化了。生命的存在来自于复制与突变造成的演化。如果芯片也能复制自己,矽生命的形态就近了!

现为DIGITIMES顾问,1988年获物理学博士学位,任教于中央大学,后转往科技产业发展。曾任茂德科技董事及副总、普天茂德科技总经理、康帝科技总经理等职位。曾于 Taiwan Semicon 任谘询委员,主持黄光论坛。2001~2002 获选为台湾半导体产业协会监事、监事长。