智能应用 影音
Microchip
ADI

ChatGPT预示人工智能挑战量子运算可能性

爆红的生成型人工智能服务ChatGPT,让大众体会到人工智能的强大运算能力。

去年(2022年)底科技界最火红的话题,莫过于OpenAI所推出的ChatGPT,这是个可以透过文字或对话,与人类直接互动的人工智能产物。

由于我们是无法有效地分辨出所互动的对像是人或机器,达到所谓图灵验证(Turing test)的终极要求。

GPT(generative pre-trained transformer)是所谓的生成型人工智能(AI),只要有主题句或初始对话,这已被训练好的生成型人工智能,即可写出一篇文字流畅且具思想的文章,或者与我们侃侃而谈。

人工智能的发展及演进已经历好几个时代,早已跳脱利用海量信息,将人类过往的知识及经验,蛛丝马迹般地寻找出最适切的解决方案,取而代之的是机器自己的学习,并创造出人类没有尝试过的解决方案。生成型人工智能就是近来备受关注的,其所使用的是自我回归(auto-regressive)演算法。程序设计师需要将所欲解决问题的基本规则输入,包括相关的参数,并设定好最终的目标值。接着电脑就开始不间断地自我学习(预测)以及检验,找出各参数在这个当下时间节点的输出预测值,并与上一个时间节点的输入参数做比较(检验),如果两者间有其相关性,则对于下一个时间节点的预测就更有把握及准确。

一旦达到所设定的目标值,这个人工智能的自我训练就大功告成。

DeepMind在几年前所推出的AlphaZero,在经过4小时的自我学习训练,随即打败所有下西洋棋的电脑程序。自我回归演算法,在各参数不断地预测及检验的循环下,需仰赖庞大的计算能力。所幸先进的半导体技术,已提供所需的运算平台。

以使用4纳米技术所制作的最先进高速运算芯片为例,其芯片已内含超过1,000亿个晶体管。不久前超微(AMD)在CES 2023会场上,所发表新一代的运算架构,9颗小芯片(chiplet)的堆叠,使晶体管数目更超过1,400亿颗。

其实说穿了,生成型人工智能与量子运算是殊途同归,两者解决问题所采取的步骤都是类神经网络的架构,在不断地预测与优化间,找到最适切的解答。不同的是,量子运算乃自然界微观世界所提供的量子叠加(superposition)与纠缠(entanglement);人工智能是人为演算法及半导体算力。

自然界产物比较难以捉摸,人为的世界比较可以预测。

量子运算的硬件架构经过多年的发展,依然很难决定要往哪一个方向前进,这其中制作量子位元(qubit)相关的技术就包括超导体、离子阱(ion trap)、光子或者电子自旋(spin)。在资源无法集中的情况下,势必会影响到量子运算达到实际应用的时程表。甚至有专家开始提出,结合超级电脑人工智能运算的能力,以及量子运算的独特性,相辅相成共同完成艰钜问题的解决能力。

换言之,当量子运算还不清楚该如何跨出下一步时,生成型人工智能在演算法不断地精进,及更庞大运算能力的硬件支持下,已逐渐挑战到未来量子电脑所擅长的领域。

科技的发展很难用以始为终的逻辑来判断,需要密切关注发展中的每一个环节,并时时做修正。以TFT-LCD显示器为例,OLED的确有非常好的条件取代TFT-LCD,但是整体发展下来,OLED也仅能在中小尺寸的显示器有所着墨。反而TFT-LCD采用OLED作为背光源,更壮大TFT-LCD在产业的声势。

个人浅见认为,量子运算有可能走入OLED的命运,甚至更惨。

2022年诺贝尔物理奖颁给在量子信息领域有杰出贡献的3位学者,一时间有不少的报导认为量子运算已备受肯定,未来商品化的价值指日可待。事实上诺贝尔委员会所表彰的是这三位学者,以实验证明贝尔不等式(Bell inequalities)的不存在,也间接地指出爱因斯坦狭义相对论的不完备。这全然是根源于基础物理的实证,与未来的应用没有关联。

诺贝尔委员会曾颁过2次物理奖给量子霍尔效应(quantum Hall effect)相关研究,原先也被认为未来会有应用及商品化的价值,但后来都没发生。

台湾投入不少资源在量子运算的发展上,但如果以未来应用的可行性来审视,人工智能的发展更应该要有积极的规划。

曾任中央大学电机系教授及系主任,后担任工研院电子光电所副所长及所长,2013年起投身产业界,曾担任汉民科技策略长、汉磊科技总经理及汉磊投资控股公司CEO。