妙用AI突破性技术 加速实现破坏性创新 智能应用 影音
Wolfspeed
litepoint

妙用AI突破性技术 加速实现破坏性创新

近年愈来愈多人运用深度强化式学习技术,结合TORCS开源3D赛车模拟游戏,藉以学习自动驾驶。GitHub
近年愈来愈多人运用深度强化式学习技术,结合TORCS开源3D赛车模拟游戏,藉以学习自动驾驶。GitHub

近年来「人工智能」(Artificial Intelligence;AI)崛起爆红,不仅打趴其余所有科技辞汇,成为IT世界最闪亮的巨星,它的影响力甚至超越科技层次,被喻为是巨型的典范转移、是人类有史以来最重大的革命,快速翻转商业世界既有竞争规则,为各行各业造成莫大冲击。

根据研究机构Tractica所做的预测,全球AI应用的市场规模,可望从2018年81亿美元(相当于新台币2,430亿元),一路增长到2025年1,058亿美元(相当于新台币3.1万亿元),前后差距高达1,206%。由此看来,若说AI是百年难得一见的天大机遇,此话似乎没有浮夸之虞,因为它的后势真的极为强劲,只能用「喷发」形容之。

生成对抗网络(GAN)的潜力巨大,因为它可以学习与模仿任何的数据分布,成为「机器人艺术家」,产出逼近知名大师风格的画作。Rutgers University艺术与AI实验室

生成对抗网络(GAN)的潜力巨大,因为它可以学习与模仿任何的数据分布,成为「机器人艺术家」,产出逼近知名大师风格的画作。Rutgers University艺术与AI实验室

由于AI太红,产生一些奇特现象。专业研究机构指出,新创公司欲争取到投资人的青睐,不管做的是什麽、只要宣称使用AI技术,便可望比其他软件新创多得到15?50%投资基金,但投资人其实不会追究新创业者是否真的把AI导入产品;令人诧异的,以欧洲市场而论,竟有高达4成宣称采用AI技术的新创公司,其实并未真的使用。

藉由深度学习  让电脑自行撷取特徵值

究竟符合哪些要件,才能算是货正价实的AI技术?总的来说,AI项下大致包含7类技术,分别是机器学习(Machine Learning;ML)、自然语言处理(Natural Language Processing;NLP)、专家系统、Vision、Speech、Planning及机器人(Robotics)。前述的技术类型中,有几项还可继续往下细分出多条支脉,譬如近年红透半边天的ML便是一例。

所谓ML,其实有点像人类的学习方式,机器根据数据进行学习,这些数据犹如一道道考题,机器把考题做熟了,就能参透数据背后隐含的知识,知道接下来如何举一反三;机器好比人类,同样有大脑、也就是Model,简言之Model系透过一个框架、试图描述一个未知现象,猜测可能造成这个现象的原因,但Model中往往有许多参数属于未知的、未确定的,此时需要透过「Model Fitting」、意即喂数据的程序,帮助机器决定这些参数。

ML实践方法有几个,第一种是监督式学习(Supervised Learning),比较像是传统填鸭式教育,直接把题目、答案都告诉机器,让机器从中学习,抓出每笔数据Xn所对应Yn的Label。第二种为非监督式学习(Unsupervised Learning),是填鸭式教育的对照组,不直接给机器题目、答案,也就是每笔数据Xn对应的Yn不再有Label,必须由机器自己整理与归纳,试着从茫茫数据中找出规律性,学习如何针对问题做分类分群。

第三种是半监督式学习(Semi-supervised Learning),属于前两种方法的折衷,是一种启发式教育模式,部份的数据Yn是带有Label的,机器可藉助这些Label代表的正确解答和数据规律性,进行更好的学习;比方说机器在学习影像识别的过程,有些教材是未曾被标注的影像数据,也有一些是已被他人标注的影像数据,后者即是带有 Label的Yn。第四种是强化式学习(Reinforcement Learning),不直接给出Yn的Label,驱使机器尝试理解Yn结果是好是坏,再把这些好坏做为回馈,精进机器的学习能力。

至于第五种,正是近几年相当火热的深度学习(Deep Learning;DL)。前面提到的Yn代表多种输出值,而Xn代表多种输入的变量来源,可称为特徵(Features),具有明确定义的特徵即为Concrete Feature,系由人类根据知识而采取预先处理、所产生的结果,相反的如果没有明确定义的特徵便是Abstract Features。

此外最基础、从来没人整理过的叫做Raw Feature;运用AI的目的,便是要从一堆Raw Feature里头萃取Concrete Features,专家称这段过程为Feature Engineering,而DL最令人惊艳之处,即是让机器能够靠着自己的力量,直接从数据中学到特徵。

除ML外,另三个备受瞩目的AI技术类型,还包括NLP、Vision、Speech,它们各自含有一些支脉,譬如NLP底下就有Content Extraction、Classification、Machine Translation、Question Answering及Text Generation,而Vision底下则有Image Recognition、Machine Vision,Speech底下有Speech to Text、Text to Speech。

GAN两相较劲的网络  大幅减少DL所需数据量

以上提到的,都算是基本AI技术,若想进一步探究AI的突破性技术(Breakthrough Technologies),则有另外的答案。有专家经过整理,归纳出至少四大项AI突破性技术,值得大家加以关注。

首先是Deep Neural Networks(DNN),也就是深度神经网络、甚或多数人理解的深度学习,如前所述,它可以让机器自行透过数据的分析而找出特徵值,而非透过人类来决定特徵值,一般来说,DNN蕴含许多层神经元,并搭配运用自动编码器(Autoencoder)来执行非监督式学习。

其次是Deep Reinforcement Learning(DRL),可称之为深度强化学习,从2013年DeepMind发表一篇「Playing Atari with Deep Reinforcement Learning」文章后,此技术开始受到愈来愈多关注,出现愈来愈多学术成果,直到2016?2017年间的AlphaGo,更让DRL的能见度大幅攀升;顾名思义,DRL系指「强化学习」(RL)结合使用「深度学习」(DL)来强化决策推演的能力,论及RL与DL的结合,大致包含三种方法,分别是「基于价值」(Value-based)、「基于策略」(Policy-based)和「基于模型」(Model-based)。

再者是 Generative Adversarial Networks(GAN),称之为生成对抗网络,由蒙特娄大学Ian Goodfellow等学者于2014年6月提出,依Ian Goodfellow的说法,GAN是一种生成模型,意谓可从训练库当中获得很多训练样本,进而学习这些训练案例所生成的机率分布。

具体做法是让Generator Network、Discriminator Network两个网络相互竞争,前者负责「生成」、后者负责「判别」,生成器会造假、将Random Noise巧妙转变成几可乱真的新样本,连同真实的原始样本意图蒙混过关,判别器必须学会判断哪个样本为真、哪个样本为假,有助于大量删减深度学习所需的数据量。

最后一个值得观察的项目为贝叶斯优化(Bayesian Optimization),旨在建构一个包含目标函数的机率模型,用以选出最佳的超参数,借此评估正确的目标函数,算是ML 当中的重要一环。



议题精选-2019台北国际自动化工业大展