Research AI
活动+

神经形态芯片初试啼声

  • 林育中
与现在计算机传统的von Neumann架构相较,神经形态芯片有平行处理的能力,而讯息是类比的,预期可大幅降低功耗。(source: Intel)

AI芯片的竞争自2015已经逐渐进入白热化,但是今年在此领域最引人注目的进展却是过去较少人知晓的神经形态芯片(neuromorphic chip),包括Intel在CES展示的Loihi以及MIT Jeehwan Kim团队在《Nature Materials》发表的epiRAM方案。

80年代初这个领域的研究开始启动,1990此领域的先驱Carver Mead在《IEEE Proceeding》上为此命名“neuromorphic system”,基本上是要用集成电路模仿脑神经的运行方式。当时的着眼点在于解决功耗以及速度问题,用的方法是类比(analog)线路,人工智能的用语还没有浮上台面,但是用于感测讯息(sensory information)则是当时的研究题目,而这些也是人工智能目前发展最成熟的领域。类比线路比二位元的数码线路可以传递、处理更多的讯息,这与量子位元有异曲同工之妙。

人的大脑平均有860亿个神经元(neuron),有150兆个突触(synapses)连系各神经元及附属组织,平均一个神经元有有1000多条突触连络其它神经元及其它神经附属组织。神经元的重要功能是传送化学物质与电信号至其它细胞,中介的桥梁就是突触。

记忆的形成与突触的连结建立、增强有关。记忆是意识(cognition)活动中最重要的一部份,学习、甚至是创造,都由这神经元及突触形成的复杂神经网络来运行。譬如联想,是一组记忆-包括若干神经元与突触-与另一组记忆有一些重复的神经元,当一组记忆的神经元被激发时,另一组记忆也可能同时被激发,而联想是公认的创造力来源之一。

与现在计算机传统的von Neumann架构以处理器和存储器处理、传递、储存数码讯息的方法相较,脑的处理器与存储器是一体的,并且先天有平行处理的能力,而讯息是类比的。由于这些先天架构上的差异,神经形态芯片期待会大幅降低功耗。

Intel并没有揭露太多关于Loihi的架构,只说它有13万个神经元(这大概与龙虾相当,果蝇、蚂蚁的1/2)、1,300万个突触,每个神经元都是一个由含学习引擎的核心网格(core mesh)组成,藉由突触连络其它神经元,支持监督学习、无监督学习与强化学习,是个会自我学习(self-learning)的元件,它的功耗仅为传统训练机制的1/1000。

Kim文章中揭露的内容比较详细,在矽晶上磊晶(epitaxy)60nm厚的矽锗,由于异质结构容易产生晶格错位(dislocation),利用这些错位蚀刻成通道,然后用银在通道中形成联机。接著让电讯号脉冲通过银线,增加或压抑银线的电导(conductance),这就是模仿调控突触连结的强度。这个元件没有晶体管,只有藉银线电导强度以及连结位址的类比讯号,而形成是用磊晶的,所以叫epiRAM。这个元件学习后用来辨识MNIST(Modified National Institute of Standard and Technology)的手写数字,准确度可达95.1%。

已有市调机构预测2026年神经形态芯片的市场会逾百亿美元,我没敢那么铁口。神经形态芯片会先应用于感测讯息,一如初衷。Intel于今年上半年开始释出Loihi给学术界就会陆续听到回馈。长期来讲,对于大脑的运行我们的认识很有限,未来对脑神经的认知成长也会嘉惠芯片设计。神经形态芯片有潜力大幅超越目前GPU、TPU等以传统von Neumann架构设计的芯片!

现为DIGITIMES顾问,1988年获物理学博士学位,任教于中央大学,后转往科技产业发展。曾任茂德科技董事及副总、普天茂德科技总经理、康帝科技总经理等职位。曾于 Taiwan Semicon 任咨询委员,主持黄光论坛。2001~2002 获选为台湾半导体产业协会监事、监事长。现在于台大物理系访问研究,主要研究领域为自旋电子学相关物质及机制的基础研究。