黛莉妍
活动+

人工智能发展的阴影与阳光

  • 林育中
一个领域在经历典范转换时,初期发展产生的问题会远比它所解决的问题要多,这正是一个锐意进取领域的典型路程。(图片来源:Pixabay)

人工智能(AI)自2015年爆发性的进展后,从资料库、算法、计算芯片、终端设备、乃至于应用呈现产业性全面建构发展,至今有一段时日,开始有人回顾前尘,检讨AI发展的「不阳光面」。

首先是经济面,已有分析师提出AI泡沫化的警示,这是有监于2001年.com泡沫化所提出的类比。但是从产业发展的轨迹来看,现在全世界市值最高的10家公司之中7家与.com相关的发展有关。

当年市场资金对此过度的挹注只是激化了产业竞争、加速了产业发展与淘汰,但是整体发展方向大致是对的。这个观察也适用于AI,是以警示归警示,没有一家公司敢于AI领域竞争中缺席。

技术面的发展则广泛的碰到三个范畴的问题。第一个是可复制性(reproducibility)的问题,AI是科技,也是科学,研究结果应该能被重复验证。但现阶段的AI研发却鲜少能做到此点,原因除了缺乏原始编码外,另外在启动学习时的乱数产生器与超参数(hyperparameter;在机器学习启动之前缺省的参数)的设定也是很大的因素。特别是强化学习,其效能表现对于超参数的设定特别敏感。

第二个是黑箱(black box)问题,或者是可诠释性(interpretability)问题-我们是否可以解释AI的学习与指令。虽然如深度神经网络(Deep Neural Network;DNN)、卷积神经网络(Convolutional Neural Network;CNN)、深度置信网络(Deep Believe Network;DBN)、递回神经网络(Regression Neural Network;RNN)等深度学习已成为AI领域中的日常术语,甚至开源码也容易取得,但是这些学习算法如何学习、下指令,我们仍然缺乏深刻的认识。

现在有几个方案试图打开黑箱子,让学习与指令变得可以解释:一、在黑箱中插入一外部可见的透明层(transparent layer),让输入与输出的结果变得比较可以了解与控制。二、逐渐变化输入的数据,看那些部份对机器学习的决策影响最大。三、用机器学习来建构机器学习的模型。

第三个是稍有争议的「炼金术」(alchemy)问题,这较前述的某一个研究可否复制或者某一个算法是否可以诠释更为复杂,是整个AI领域的问题。研发人员基本上无法判断某一类的问题选用那一个算法会得到最好的结果,靠的多是传闻之言,这象是中世纪的炼金术。

但也有几个建议方案试图解决炼金术问题:一、帮算法建立玩具模型(toy model)-这是物理学家的惯用手法,譬如在彩色图形辩识之前先以黑白图形测试以了解算法内部机制。二、对算法进行切除研究(ablation study)。一次切除算法的一小部份,看其对输出有什么影响,这听起来像不像早期对大脑功能模块区块的研究方法?

在我看来,这些问题部份根源于它的奠定基础神经网络:我们对神经网络与脑的了解仍远远不够,类比于它的算法也容易扑朔迷离。脑神经科学的进展,相信也会同时阐明AI的一些问题。

从另一个角度来看,一个领域在经历典范转换时,初期发展产生的问题会远比它所解决的问题要多,这正是一个锐意进取领域的典型路程,所以我对这些问题持乐观的态度!

现为DIGITIMES顾问,1988年获物理学博士学位,任教于中央大学,后转往科技产业发展。曾任茂德科技董事及副总、普天茂德科技总经理、康帝科技总经理等职位。曾于 Taiwan Semicon 任咨询委员,主持黄光论坛。2001~2002 获选为台湾半导体产业协会监事、监事长。现在于台大物理系访问研究,主要研究领域为自旋电子学相关物质及机制的基础研究。