
早期(1950年左右)的人工智能研究因为技术及环境碰到瓶颈,一直未能落地。直到这几年「深度学习技术」突破之后,「人工智能」又再火红回来。目前大众媒体将电脑做智能分析(或决策)的相关服务都统称为「人工智能」(AI),这是一个偏行销的用词。而其中的关键技术,一般称为「机器学习」(Machine Learning),有数种不同的子领域,在1980年代开始已陆续实现在一些预测、推荐、分类的应用。因为數據(e-mail、网页、产品、文件、數據库、等)逐渐增多之后,自然需要更聪明的功能。根据需求以及可得的數據,电脑科学家尝试去「逼近」某些「智能方程序」。
早期在应用场域使用的机器学习算法,大都是应用在结构性的數據上,像是关键字、病例數據、购买纪录等。所以过去二十几年大家享受到的文字查找、购物推荐、(或是不喜欢的)在線广告等,大概属于这个范畴。其中的关键是如何定义出最好的「特征值」,接著使用适合的分类器来实现这个智能方程序。其实过去二十年来,最多人使用的是称为SVM(支持矢量机),其中全世界最多工程、研究人员使用的套件,是臺大林智仁教授所开发出来LIBSVM开源軟件,这是来自于臺湾巨大的贡献。
目前令人瞩目的深度学习演算法帮助最大的领域在于复杂、非结构性的數據;因为網絡当中有著以百(千)万为单位的庞大變量,透过层级網絡的型态,可以「逼近」复杂的數據型态跟智能方程序。这就是为什么在影像、视讯、语音的研究上看到这种跳跃式的进步。因为最佳的特征值、分类器等都可以在深度学习網絡训练中一气呵成,自动取得最佳的设定。技术落地为崭新产品的机会,不仅在从使用者端崛起,更在医院、交通工具、工业应用、机器人中逐渐成为重要的感知回馈。
顺应这场智能技术的典范转移,如何在产品、新问题上设计适合的網絡,需要大量的训练數據与数量庞大的运算设备(也是NVIDIA会如此火红的原因),如何将这些耗电、运算量大的智能引擎顺利摆上各种硬件或是企业产品,都是亟待解决的问题,以及机会所在!