智能应用 影音
MongoDB
ST Microsite

人工智能芯片竞技场

Google的TPU最偏向效能、特化;Intel的CPU+FPGA偏弹性、通用,而NVIDIA的GP2U介于中间但是往通用之途多迈了一步。(source: NVIDIA、Google & Intel)

由于人工智能在实际世界应用的逐渐崛起,企图以芯片线路的特化来加速演算法的学习(learning)和推论(inference)变成人工智能发展的主要方向之一。

人工智能芯片现在浮在台面上的主要有三个例子:NVIDIA的GPU、Intel的CPU+FPGA和Google的TPU(Tensor Processing Unit)。批评者说GPU适用于人工智能只是历史的巧合-GPU中的平行处理(parallel processing)、多核心(multi-core)以及可程序化的流水线 (Programmable pipeline) 处理人工智能中特定的问题极有效率。在2009年Google Brain的计划中吴恩达发现GPU可以加速深度学习100倍。

不管这是不是真的巧合,NVIDIA利用了它产品适用于现阶段人工智能应用的机会,让其新产品GP2U(General-Purpose computing Graphics Processing Unit)更趋向人工智能的应用;也利用先入者的机遇,在芯片市场领先,并且取得用户需求的回馈。

Intel的CPU常年领先自不待说,但是对于人工智能应用,CPU的常规架构负担太重,执行人工智能特殊工作也不够有效率,因此加入FPGA、甚至GPU以多芯片封装的方式增加系统能力的弹性,对人工智能工作者是自开ASIC芯片外的另一种选择。

Google第一代的TPU因AlphaGo已声动天下,它的核心功能区块就只是矩阵的运算,因此减省轻快。其主要的优势在于推论的速度,所以在与顶尖围棋手对奕时能如此的羽扇纶巾。第二代的Google Cloud TPU则以加速学习为主要目的,弥补第一代的不足。

这三个常被拿来比较的人工智能芯片其实就只在效能与弹性之间错落。如果将之摆放在一维的光谱上,Google的TPU在光谱最偏向效能、特化的那一端;Intel的CPU+FPGA在光谱偏弹性、通用的另一端,而NVIDIA的GP2U座落于中间但是往通用之途多迈了一步。

仅仅三个典型的例子却显示出这麽丰富的样态,说明人工智能芯片尚在初发的阶段,所以科技部的「前瞻芯片系统及半导体设计」中关于人工智能芯片的部份是有机会崭露头角的。

人工智能芯片竞争的主轴是什麽?我认为有两个:一个是演算法,另一个是市场定位。以第一代的TPU为例,其特化的计算能力是矩阵的运算,这是神经网络学派中深度学习的重要计算工具,也是有些其它人工智能演算法学派中重要的计算工具之一。但有些其它学派还需要另外的计算工具,而且演算法还在快速的进步之中。特殊化计算法的选取与设计是人工智能芯片设计的最重要工作。

人工智能的应用现在被说成似乎无所不在、无所不能,但是距离普适性(universal)的人工智能还早得很呢!看单只是下围棋这样规则明确、价值清楚的游戏,Google都要花两代的芯片来完善。这个阶段能做得好的,就只是在一特定领域的应用。这样的应用领域多如繁星,因此市场定位重要。挑对了领域,发展、应用极致化的演算法,将之实施于线路,这就是我们的容身之处。黑洞公司虽大,宇宙总不能给他们占全了!

现为DIGITIMES顾问,1988年获物理学博士学位,任教于中央大学,后转往科技产业发展。曾任茂德科技董事及副总、普天茂德科技总经理、康帝科技总经理等职位。曾于 Taiwan Semicon 任谘询委员,主持黄光论坛。2001~2002 获选为台湾半导体产业协会监事、监事长。