维度诅咒
我所专注的电信系统评估,需要调整多个参数,往往得画出数百张效能评估图来找出最佳解答。最常面临的问题之一是所谓的「维度诅咒」(Curse of Dimensionality)。当數據的维度(亦即参数)增加后,要找到所有可能参数组合的困难度会迅速倍增至无法处理的地步。维度诅咒的挑战,正如我们在AI或大数据领域所面临的困境:当信息过于庞杂,人类必须寻找方法「降维」,才能以有限的视角理解无穷的世界。这个问题由发明动态规划(Dynamic Programming)的理查・贝尔曼(Richard Bellman, 1920~1984)所提出。他的「维度诅咒」警告,提醒我们在多维度情境下计算与查找的困境。后续并没有单一数学家「解决」这个问题,而是透过一系列方法来部分缓解,例如降维(Dimension Reduction)、主成分分析(PCA)、随机投影等。在众多相关学者之中,戴尔可尼司(Persi Diaconis;1945年生)的故事特别引人入胜。他出生于音乐世家,曾在世界著名的茱丽亚学院(The Juilliard School)研修小提琴近9年。14岁时,他遇到美国魔术大师维农(Dai Vernon, 1894~1992),觉得魔术比拉小提琴更有趣,于是逃家跟随维农各处巡回表演。16岁时,他独立行走江湖卖艺。24岁时,他深感魔术技巧进入瓶颈,应该寻求一些理论基础,以提升他的表演。因此,他在书店找到一本机率的入门书《Introduction to Probability Theory and Its Applications, Vol. I》,由斐勒(William Feller, 1906~1970)所写。结果发现难以理解,于是决定进大学学习机率。最终,他成为史丹佛大学统计系的Mary V. Sunseri讲座教授。戴尔可尼司并没有「解决」维度诅咒,但他的研究在随机性、马可夫链与高维几何方面提供降维与分析的启发,对相关领域影响深远。当维度降到2或3时,结果就能以统计图表呈现。常用的统计图表包括圆饼图(Pie Chart)、曲线图(Line Graph)和条状图(Bar Graph)。许多人以为圆饼图是由南丁格尔(Florence Nightingale, 1820~1910)所创,事实上,最早的圆饼图是由英国工程师暨政治经济学家普莱菲(William Playfair, 1759~1823)所发明。他曾担任发明蒸气机的瓦特(James Watt)的助理,帮忙绘制工程图,也参与不少发明。他在1801年的著作《统计学摘要》(Statistical Breviary)中首次使用圆饼图,显示土耳其帝国在亚欧非三洲所占的面积。南丁格尔的贡献则在于善用图表来推动改革。她在克里米亚战争中观察到病死的士兵远多于战死者,但仅靠数字报告难以引起重视。于是她创造了一种玫瑰图(Coxcomb diagram),这是一种与圆饼图相似的放射状图表,用以强调护理改革的成效。她的图表设计虽然被部分统计学家批评「不易精确比较」,但在当时确实发挥巨大说服力,让英军投入更多资源改善医疗条件,拯救无数生命。相较于圆饼图,条状图在大部分情境下表达信息更好。条状图同样是由普莱菲所发明,他常说「文不如表,表不如图」: 这句话也是我写论文时所奉行的准则。在爱丁堡有一条楼梯小径纪念普莱菲。他的名字也取得很妙。我常说:「Playfair used graphs and charts to play fair」。
计算半导体(二):量子计算
人工智能虽好,但也有为人熟知的缺陷。机器学习训练时需要有大量的數據输入,而且在建立模型时,有天然的「维度诅咒」(curse of dimensionality) 维度是指一笔數據的特徴(features)数目,在數據空间中,这类數據就需要此特徴数目的维度空间中的点来表达。以制程为例,數據的特徴可能就包含温度、时间、长度、厚度等等参数,这个数目就是數據的维度。 空间的维度一旦变高,空间的体积成指数成长,即使有巨量的數據,在如此庞大的空间中數據点显得稀疏(sparse),传统的机器学习变得无法轻易的取得數據的相关性,有效的模型难以建立。 但是对于量子计算而言,维次不是问题,至少在通用容错量子电脑(universal fault tolerant quantum computer)出来之后绝对不是问题。量子电脑每增加1个量子位元,它可以处理的空间维次数目就可以翻倍,所以对于具有许多特徴(或者参数)数目、较少的數據群体,用量子电脑来执行机器学习就有显著优势。 2025年在Advanced Science由Zeheng Wang等发表的论文 “Quantum Kernel Learning for Small Dataset Modeling in Semiconductor Fabrication: Application to Ohmic Contact”应用量子计算于氮化镓(GaN)高迁移率晶體管(High Electron Mobility Transistor;HEMT)的量子机器学习研究,显示量子计算在少量數據—仅有159笔數據—的状况下,其预测表现远优于传统机器学习,预测数据也与实验结果相吻合。 这个研究的题目就是在硅片上外延(epitaxy)长氮化镓/金氮化镓的夹层,在2种材料的界面处形成一个HEMT的二维电子气体(2 Dimensional Electron Gas;2DEG)通道(channel)。电子通道中的电子是由GaN及AlGaN所注入(injection)的。为了能够让AlGaN端能有充份的电子注入,必须于AlGaN上长有金属堆叠(metal stack),并且与AlGaN的界面形成欧姆接触(Ohmic contact)。这样的层层堆叠之后,通常需要退火(anneal)的过程以稳固其分子结构。本研究的目的就是在建立在各种材料厚度、金属堆叠种类、退火温度及时间等参数的模型,借以寻求欧姆接触的最优解。 量子计算处理这个研究的方法与传统机器学习的方式有部分大致雷同—这也比较容易公平的比较二者的优劣。 首先将制程的37个参数以主成份分析(Principal Component Analysis;PCA)简化成5个参数,然后用变分自动编码(Variational AutoEncoder;VAE)合成新增數據,可以将样本数扩大。这两个步骤在量子计算与传统的机器学习中都一样实施,目的在简化模型建立的复杂度、增加样本数目。 量子计算比较不同的是将简化后的5个参数映射到5个量子位元上,实质上是将一个5维的空间嵌入一个2的5次方—32维空间中。然后在此高维度空间中以量子核(quantum kernel)两两比较各數據的相似性(similarity)。 量子计算比传统机器学习的优势为在高维度的空间中數據的非线性(non-linear)特徴比较容易显现,所以其所建立的模型比传统机器学习的要较精确。 这个量子计算于半导体制程的应用其实是在传统电脑上模拟量子位元及量子机器学习所得到的结果,但是模拟无碍于证明量子机器学习的优越性。 量子计算新算力的加入对于半导体的研发意义重大。仅凭少数的數據,就可以建立参数数目巨大的模型;工程批的数目可以大幅减少,研发时程缩短、经费下降。 摩尔定律虽然面临较过去严峻的挑战,但是半导体产业增加新经济价值的步伐因有诸种算力的加入而未曾放缓。
计算半导体(一):第一原理计算与机器学习
现在的半导体厂高度依赖计算能力。2000年后才引进的计算方式主要包括第一原理计算(first principles calculation)和机器学习, 2025年又即将加入量子计算。我将这些方法称之为计算半导体(computing semiconductors)。 第一原理计算是指由最基础的物理学底层出发,包括量子力学、电动力学(electrodynamics)等,用以计算材料的诸种性质。第一原理计算于1970~80年代在凝态物理(condensed matters)和量子化学(quantum chemistry)成为标准称谓。 在1980~90年代,一些半导体大厂的实验室如IBM,Bell Labs和NEC开始用它来计算高介电值物质(high k dielectrics)、缺陷(defect)、异质结构(heterostructure)等。 2000年后因为第一原理计算的套件广泛开发与商业化,以及计算机算力的大幅提升,许多半导体公司将其整合入研发的工作流程之中。2010年后,第一原理计算已经变成各大晶圆厂的研发标准工具。 第一原理计算的应用例子包括高介电值物质(如HfO2、ZrO3等)、缺陷及可靠性模型、新通道(channel)材料(如Ge、III-V族等)、二维材料(如MoS2、WSe2等)。 第一原理计算几乎可以涵盖晶格材料的所有性质,包括能帯寛(bandgap)、电场、磁场、自旋(spin)、电子传导(transport)、热(thermal)、振动(vibration)、光学(optical)等性质。 第一原理的计算在搭建晶格结构时依所欲建构材料的原子种类、共价键(covalence bond)长度、晶格对称(lattice symmetry)、相位(phase)等因素来组织材料,宛若堆叠乐高。也有能力故意在晶格中空出一两个位置,形成空隙(vacancy);或者加入其他类原子,形成掺杂剂(dopant);甚至形成错位(dislocation),这就是半导体制造过程中有意出现的结构或无意出现的缺陷。 不同的分子结构亦可设法连接在一起,这就是2种材料的界面(interface)。现在的半导体元件微缩近乎极限,材料的本体(bulk)部分差不多就恰好只能实现电子该有的传导性质。由于本体部分日益单薄,界面性质的重要性逐渐增加,因此成为半导体材料研究的重要题目。 总结一下,第一原理在半导体目前最重要的应用有三:一是材料的能带结构与电性(electronic properties);二是缺陷、掺杂剂和可靠性的分析;三是下時代元件新材料的开发。使用第一原理计算大幅的降低原先试产批(pilot lots)的使用,也缩短开发时间。 虽然学术界在2000年起就有如晶圆缺陷分类、良率分析等大数据的应用,但是现代意义的卷积神经網絡(Convolutional Neural Network;CNN)在2015年后才开始应用于晶圆图模式识别(wafer map pattern recognition)。 接下来扫描式电子显微镜影像分析(SEM image analysis)以及缺陷检测(defect inspection)也开始以机器学习来处理。 到了2017年以后,主要的半导体设备制造商以及晶圆厂开始应用机器学习于缺陷检测、曝光热点侦测(lithography hotspot detection)、制程监控(process monitoring)等。 2020年后机器学习的技术日趋成熟,于半导体工作流程中被广为采用,包括用于良率学习(yield learning)的晶圆图缺陷聚集(wafer map defect clustering)、光罩合成(mask synthesis)及光学邻近效应修正(Optical Proximity Correction;OPC)、热点检测(hotspot detection)、自动光学检查(Automatic Optical Inspection;AOI)、预测性维修(predictive maintenance)等。大致上透过高维度、巨量信息的分析及图形識別(pattern recognition)监控工厂及提升工作效率。 由于机器学习的深度渗透,整合后的结构形成智能制造(smart manufacturing)、虚拟工厂(virtual fab)、虚拟晶圆(virtual wafer)更有效率的制造、研发系统工具。
Energy + Intelligence:AI优化能源效率与韧性
Intelligence需要能源当作燃料供应,同样的,AI技术的发展,也正提升能源的韧性以及效率。AI与能源互相为用:AI需要更可靠、更干净的电,能源系统也需要AI提供准确预测、快速维运,以及可信赖的控制。当我们开始纳入「AI for Science」探索材料与化学新结构、能源探勘,以及地球天气的基础模型,更可以理解为何Energy+Intelligence为企业及国家贡献的关键竞争力。AI不仅是能源消费大户,也正在各个面向优化新能源应用,包括:(一)发电方式、来源的探勘、发电优化,(二)电网稳定,及(三)降低耗电及用电端优化。在发电与储能端,AI正加速能源资源的探勘与新材质研发。透过地震波与电磁感应数据分析,AI可更精准侦测地热资源;在海域与山谷,AI对潮汐与风速的长期预测,能帮助规划最佳的风机与潮汐发电位置。材料科学领域也因AI for Science而出现突破,例如AlphaFold2在蛋白质结构预测的成功,有机会用来加速电池与太阳能板材料开发。过去太阳能发电每提升1%可能需耗时数年,AI有机会将开发周期缩短30~50%,并在固态电池、氢能储能等新兴领域找到更安全、更高能量密度的材料组合。AI正在成为解决再生能源「间歇性」问题的核心工具。风电、太阳能、潮汐等发电量深受天气影响,输出曲线常常在几分钟到几小时内大幅波动,这意味著其他发电机组(如天然气、煤、水力)必须實時补上缺口,或透过储能设备平滑输出。AI的价值在于提前预测这些变化,让调度单位能在几小时甚至几天前准备好备援計劃,因为各个能源系统启动的成本以及需要的预置时间不同,从几秒到几个小时。Google DeepMind与英国国家电网的合作案例显示,透过AI预测风电输出,准确度提升直接让风能的经济价值增加20%。同样的,臺湾也正使用AI系统预测未来4到72小时太阳光电的变化,提供电力调度依据。再生能源预测与地球的天气系统变化息息相关。生成式AI的进展也推升「地球系统基础模型」的整合,例如最近《Nature》上发表的AURORA基础模型,能同时处理空气品质、海浪、台风与天气预测,比传统数值分析快上数十倍,且能在不同地区与时间条件下预测,对于掌握再生能源间歇性的太阳光辐射、风速、潮汐等有很大的助益。同时,准确的天气预测(大雨、温度)也能掌握用电端的用量趋势,协助智能电网分区负载平衡、电池充放电优化,甚至办公大楼与工厂的需量反应(减少电网用电)。当预测能力与调度能力打通,AI不只是再生能源的辅助工具,而是让再生能源成为稳定、可规划的资源。在维运端,AI的价值在于找回「可回复损失」,并缩短从侦测到修复的时间。以太阳光电为例,电站层级的停机、组串层级的污损与遮荫、电气层级的接触不良与误停,都会造成可观的损失。數據驱动的诊断可以在至小时级侦测到异常型态,配合工作单与现场流程,将修复时间压到最短;在风电、燃气与燃煤机组上,同样的技术可用于振动与温度特征的早期侦测,以延长寿命、降低突发停机。我们的经验发现,在大型太阳能案场使用AI驱动的监控服务,可以将发电损失由5.5%降至0.9%,以短期臺湾20 GW的太阳能目标(2025年时)来看,可以省下将近4个超大型太阳能案场的规模。在新一代电网中,稳定供电不再只是「发多少、用多少」的平衡,而是必须在复杂且瞬息变化的情境下,同步协调发电、充放电、价格预测与供需调度。这需要在边缘(edge)實時运算与决策的AI系统,透过傳感器与IoT架构收集數字电表、风机、变压器、输电设备等實時數據,提前预警设备异常、降低停机风险。同时协调各种发电来源、储能电池与用电端,组成虚拟电厂(VPP),在尖峰时段回馈电网。传统多依赖规则式控制,如今可结合强化学习(Reinforcement Learning),在模拟中反复优化策略,提升调度效率。由于能源已被欧盟《AI Act》列为高风险应用,这类系统必须兼顾可解释性与审查机制,确保关键决策既快速又可追溯。在此情境下,EdgeAI也会逐渐在能源扮演关键角色。能源转型不仅带来产业结构的重整,还创造智能电网与绿能服务的新机会。当AI融入能源,发电、输配、储能与用电端不再彼此独立,而是透过演算法与實時數據紧密整合,形成具备韧性、可优化且能交易的动态網絡,让能源成为可被弹性调度的资产。数据呈现这一趋势背后的产业规模:AI在再生能源市场的规模,从2022年约6亿美元,预计将跃升至2032年的46亿美元,年复合成长率达23.2%。同时,智能能源市场(smart energy)在2022年约为153.8亿美元,预测将成长至2030年约316.4亿美元,年复合成长率约9.6%。显而易见,Intelligence与Energy的结合已成为全球基础建设的双引擎,在AI主权、能源安全、与气候议题三重压力下,更是国家与企业竞争优势发展关键。
Energy + Intelligence:AI时代的能源挑战与产业契机
历史的轨迹显示,过去生产力的提升总伴随高密度的能源转换与工业效率提升:从水力、蒸汽、电气化、汽车与石油,到IT与互聯網,如今轮到AI。LinkedIn創始人Reid Hoffman新书提到的「Energy + Intelligence」之所以关键(之于国家或是企业),点出可负担的算力决定智能边界,而算力终究受限于可取得、可扩充的电力与基础设施。当全球掀起「主权 AI」竞赛(涵盖经济、国防、研发、教育与价值体系),大型语言模型一次训练动辄上亿美元,带动半导体与服務器的巨额投资;更关键的是,推理(Inference,指模型训练完成并部署后的实际运作)已取代训练成为主要负载(约增至百倍等级),持续放大对能源与电网的需求。Intelligence需要Energy驱动。关键在 token 经济学(参考前文);虽然 2021到2024 技术进展,让每token成本大约下降3个数量级,但总token需求持续成长(例如近来财报揭露微软(Microsoft)的用量1年约放大 5 倍、Google的月用量年增达数10倍)。能耗端的成长也很直观:一次生成式查询约耗电2.9 Wh,约为传统查找0.3 Wh的近十倍。再加上Edge AI的普及,自驾车、工业电脑(IPC)、机器人、个人装置与穿戴都开始具备推理能力。当产品体验走向「more tokens, more capable」,AI數據中心成为企业、国家竞相投资标的。AI數據中心(AIDC)急遽推升电力需求。AIDC在满载运转时,其耗电量可达10万户家庭的等级,超大型设施甚至放大20倍,相当于200万户。以美国为例,全国已有数千个數據中心,加拿大也接近500个,且新建规模持续增加。这些场站不仅需要更高电压与直流(DC)供电,还必须采用芯片直冷(DtC)等先进散热技术才能支撑高密度运算。根据多方预测,全球數據中心年耗电量在2030年前可能较2024年成长超过1倍,其中AI应用将是主要驱动力;IEA估计,在2030年, AI与加密货币合计将贡献全球电力需求成长的4%。在能源结构转型与碳排的限制下,这股快速窜升的用电压力,正同时考验电网扩充、再生能源布建,以及供应链的应变速度。不只需要电,AIDC甚至AI供应链也需要来自再生能源的「绿电」,以满足碳盘查与国际采购规范。绿电采购与碳管理从形象工程变成出货门槛,买了绿电并不代表风险消失,案场差异、契约条件与实际发电偏差都需要数据与流程来支撑。企业应把绿电、用电与生产节奏同时考量,用可稽核的工具模拟与结算,让采购组合真正对冲价格与排碳风险,同时提升营运韧性。不只AIDC,AI驱动进展的无人出租車同样可能加重都会电力需求。比如某个都会区(如臺北)每日用电约20 GWh,若一半出租車(约 1.25 万辆)改为自驾电动车,每日额外耗电约0.8 GWh,占全市日用电的4%。若充电集中在夜间6小时完成,瞬时功率需求可达140 MW,相当于多一座中型电厂的负载。这种转型虽能减碳并提升运输效率,但也对电网容量、调度与充电设施提出挑战,必须透过排程、储能与實時价格匹配,避免交通电动化成为新的负载风险。因此,新一轮的电网升级以「去碳化」、「分散化」与「數字化」为核心方向。随著再生能源(太阳能、风力等)渗透率持续攀升,电网面临低惯量与高波动的挑战。天气变化,可能在分钟内改变发电输出,冲击电网稳定与调度反应。同时,分散式发电资源(屋顶光电、储能、可移时用电)大量出现在电网末端,传统以集中式大型机组为核心的调度模式已无法应付这种「多点、小规模、高波动」的新样貌。这种结构变化不仅迫使电网架构升级,也催生新的营运模式与市场服务,例如實時需量反应(demand response)、虚拟电厂VPP、微电网(microgrid)等。要支撑这样的系统,企业与电力公司必须将平臺从单纯监测升级为可跨厂牌、跨协定、跨场域的「监测+控制+數據交换」EMS(Energy Management System),并将预测直接纳入控制逻辑,同时在设计阶段预留关键机电、储能与部分制程为可调度资产,让用电从成本转化为可创造价值的资源。近来有案例显示,大型數據中心可在电力需求高峰时暂时降低 IT 负载或启用备援电源,参与需量反应市场,这不仅有助电网稳定,对营运方也是额外收益来源(例如美国部分云端业者与 ISO/RTO 合作,在夏季尖峰时段提供数十至上百MW的可释放容量)。能源已不再只是营运成本,而是产品交付与市场竞争的先决条件。对制造业与云端服务供应商而言,在电价波动与供应紧绷下维持稳定供电,直接影响合约履行与客户信任。若能将场域设计为可调度资产,不仅可透过需量反应与虚拟电厂降低成本,亦能在电网紧急时反向供电创造收益。这波Energy + Intelligence的趋势正推动电网更新,涵盖高压变电、储能、智能傳感与监控、跨场域控制与预测平臺等,并带动相关供应链在臺湾的成长动能。这既是支撑本地AI生态的必要条件,也是切入国际能源解决方案市场的契机。
AI的拉格朗日点
拉格朗日点(Lagrange Point)这一概念源自十八世纪法国数学家拉格朗日(Joseph-Louis Lagrange, 1736~1813)的研究成果,是天体力学中的一项重要发现。它描述在2个天体的引力作用下,存在5个特殊的位置,若在这些点上放置第三个质量极小的物体,其所受的引力与离心力可达成动力学平衡,使其能相对稳定地存在于该位置。此理论不仅推进太空工程的设计思维,也为其他领域提供有力的数学比喻工具,包括当代人工智能(AI)在内。拉格朗日点的发现,是三体问题(three-body problem)研究的副产品。三体问题试图描述3个天体在万有引力下的运动轨迹,其动态行为极其复杂,往往难以解析。但拉格朗日在研究太阳-地球-月球系统时发现,若第三个天体质量极小,则在特定几何配置下,存在5个位置(L1至L5),可使其与2个主体保持稳定相对位置。其中,L1、L2与L3位于主体连在線,L4与L5则分别构成与主体形成等边三角形的配置。此发现迄今被应用于太空望远镜的部署,如韦伯太空望远镜(James Webb Space Telescope)即位于太阳-地球系统的L2点。若我们将拉格朗日点的「多力平衡」视为一种数学与概念上的隐喻,则其原理可为AI系统设计带来启发。以多智能体系统(multi-agent systems)为例,包括无人机编队、机器人协作群或自驾车车队,每个智能体在分散环境中运作时,必须在效率、资源与安全性之间取得平衡。这种多方力量的协作动态,与拉格朗日点中各力达成稳定的概念有著形式上的相似。尽管这不是直接的物理应用,这种比喻可协助设计具有「动态稳定性」的协作演算法,尤其是在非中心化系统中提供有效的架构指引。此外,在深度学习领域中,神经網絡训练的过程常被视为一种优化问题,在企图复杂的代价函数空间中寻找最小值。这一过程虽然主要依赖如梯度下降法等技术,但若从拉格朗日乘数法(Lagrange multipliers)概念层面延伸,也可将其比作在多重力量(误差项、正规化项、约束条件)拉扯下的一种「力的平衡」状态。拉格朗日点和拉格朗日乘数法在名称上类似,但两者分属不同的数学领域,前者为天体力学中的位置解,后者为约束优化中的解法工具,读者切勿混淆。在面对多目标学习与非线性复杂系统时,AI模型往往须处理如资源分配、效能与公平性之间的矛盾。在这些问题中,灵活引入如「稳定结点」的设计理念,有助于在看似对立的力量中寻求均衡策略。虽非直接援用拉格朗日点的数学公式,但这种「稳定中求变」的设计逻辑与其精神相通。对于混沌系统的模拟应用也是值得一提的面向。虽然拉格朗日点本身并非混沌系统的典型例子,但在研究如气候模型或金融市场等高度非线性的动态系统时,AI可从天体力学所强调的初始条件敏感性中获得方法论上的警示与启发。AI在这类系统中的应用,依赖高精度的预测能力与动态调适策略,而类比于拉格朗日点的稳定架构可成为设计上的哲学参照。当AI逐步融入人类决策过程,甚至走向「人机协同智能」的阶段,如何在人与机器之间设计一种动态平衡的权责配置,将成为重要议题。例如,在医疗领域中,AI可以像L1点一样,处于信息汇聚与快速计算的前线,协助提供诊断建议,医师则保持最终判断权,确保人类伦理与价值观的主导地位。这样的设计不仅可提升效率,也兼顾透明性与责任归属,实现「稳定而不僵化」的人机合作模式。
后量子加密的未来展望(二):两套标准与上市时程
预见商用量子计算机的降临,美国国家标准与技术研究院(National Institute of Standards and Technology;NIST)已于2024年7月确定公钥加密/金钥封装机制(public key encryption/Key Encapsulation Mechanism;KEM)以及數字签名(digital signatures)的标准。 KEM使用CRYTALS-Kyber(Cryptographic Suite for Algebraic Lattice-Kyber)演算法,为FIPS(Federal Information Processing Standard) 203;數字签名使用CRYSTALS-Dilithium演算法,为FIPS 204。另有FALCON(FIPS 205)、SPHINCS(FIPS206)等其他类型的數字签名的标准及演算法。 CRYSTALS是利用代数晶格(algebraic lattice)中的数学难题如寻找最小矢量等来设立破解难度,而代数晶格(又称秩序理论;order theory)是抽象代数(abstract algebra)的一个分支。 KEM的功用是后量子版的RSA,有Kyber-512、Kyber-768及Kyber-1024等3种强度等级。Dilithium后量子版的數字签名,也有Dilithium-II、Dilithium-III及Dilithium-IV等3个强度等级。 中国也由商业口令研究所(Institute of Commercial Cryptography Standards;ICCS)在2025年2月开始启动下時代商用加密演算法(Next Generation Commercial Cryptography algorithm;NGCC)計劃,并向世界征求对后量子加密标准的意见。 中国选用的演算法也是基于晶格(lattice-based)的演算法,分别是用于加密的Aigis-enc及用于數字签名的Aigi-sig。 由于未来可能存有两套后量子加密标准,两种会并行存在并建立中介机制、或者终将合流变为单一标准,此一问题对于从事后量子相关产品服务业者至关重要,值得密切注意。 目前已进入后量子加密(PQC)领域的半导体厂商包括英飞凌(Infineon)、恩智浦(NXP)、Thales及Microchip。产品应用包括云端、PC、IoT、汽车、嵌入式系统、ID、工业用等。 特别值得一提的是中国电信量子群(China Telecom Quantum Group)将于2025年11月释出中国第一个高效能芯片,置于他们整合量子金钥分发(QKD)+PQC系统之上。由于此芯片已经包括混合的传统及量子通讯網絡的应用,对于两个标准之间的竞合会产生一定的影响。 PQC产品什么时候会大量上市?答案取决于量子电脑的进展速度,量子电脑进展到某一种度,才可能对现存加密体制构成威胁。 量子电脑的运算能力的主要因数之一是逻辑量子元(logic qubit),就是可以实际用于计算的量子位元数,这个与量子电脑实际上建构的物理量子位元(physical qubits)数目有很大的差别。量子位元的维持、运算、量测都可能发生错误,需要使用一群量子位元来执行量子纠错码(Quantum Error Correcting Code;QECC)的功能,确保逻辑量子位元计算的正确性。依现在错误发生率的技术水准,1个逻辑量子位元可能需要近千个物理量子位元来保护。所以量子电脑所需的物理量子位元数量庞大,但可以使用的逻辑位元数量较小。但是在逻辑量子位元数目上百之后,在有些应用就有能力超过传统计算,取得量子优势(quantum supremacy)。 对于现在常用的加密机制RSA-2048及AES-256,目前估计约4,000~6,000个逻辑量子位元数即可以破解。 目前有3家公司明确的公布商业量产通用容错量子电脑(universal fault-tolerant quantum computer)的时程。 Quantinum宣布于2030年前推出100个逻辑量子位元数的离子陷阱(trapped ions)量子电脑;IBM则宣布于2029年推出200个逻辑量子位元数的超导体(superconductor)量子电脑。这两家也许对目前的加密机制还构不成太大威胁。 另一家PsiQuantum预计也是在2029年量产通用容错量子电脑,其上的光子(photonic)量子位元数从計劃开始就是以百万个物理量子位元为目标,估计可以使用3,000~5,000个逻辑量子位元,这已有可能危及目前的加密安全体系。 假设以上的量产时间和估算为真,PQC的商机何时开始浮现?答案是量子计算机交机的那一天得全面准备妥当。任何没有PQC保护的網絡,彷若透明,对于譬如国防、金融等敏感体系尤为如此。一个国家、地区、或个人如果没有PQC 的保护,就会变成網絡孤岛,没有人愿意与之往来;在金融业,这就像是被退出SWIFT体系,所以加密方式的转换必须在高逻辑量子位元树的量子电脑问世之前全面完成。 PQC产品的NIST FIPS各种标准验证需要约12~24个月的时间,产品验证后需送客户设计和验证,才会有机会入驻網絡各节点和终端系统。现在已是2025年下半,离2029年还有多久?所以那些公司已经有产品布置,一点也不令人讶异。 还有一个备注。美国和中国的加密标准虽然不同,但是都是基于晶格的演算法。这类演算法的安全性是因为目前没有已知量子演算可以轻易破解此类问题,基于晶格的演算法所产生的问题并未严格地被证明是BQP之外的类别。也就是说,如果努力发展新量子演算法,也许基于晶格的演算法又会被破解,到时候PQC的布置又得重来一次,很伤脑筋。
后量子加密的未来展望(一):传统通讯安全与量子计算带来的威胁
测量、展示量子计算机能力的方法之一,是看其有无办法用量子计算中的萧尔演算法(Shor’s algorithm)来分解一个数目中内含的质因数(prime factors)。 传统上质因数分解是个困难的问题,特别是被分解的数目是个大数。但是量子计算的萧尔演算法对于质因数此一问题相对于传统计算有指数性加速(exponential speedup),亦即在有足够量子算力的条件下,质因数分解的计算时间得以指数式地缩短。 量子计算在其他问题上也拥有不等的优势,譬如在一个无秩序的數據库中查找一笔特定數據的问题,量子计算用葛罗佛演算法(Grover’s algorithm)可以取得平方加速(quadratic speedup),也就是计算时间可以开根号的缩短。 传统的加密手段可以简述如下。Alice要安全地传送一段文本(text)给Bob(这是加密学的标准敍述方式),Alice首先会用一支二进位256位元的数字当成金钥来加密,现在通用的标准方法是AES-256,然后将这段加密文本送给Bob,Bob用同一支金钥反向操作即可解密。问题是Alice如何递送这支金钥给Bob才安全?这就要用RSA-2048的公钥—私钥架构(public key-private key infrastructure)。 RSA-2048的公钥是一个二进位2,048位元的大数目,它是2个大质数的乘积。每个人的公钥都是公诸于世、众所周知的。Alice用Bob的公钥来加密文本使用的密钥,送给Bob。与AES不同的是,解密必须用Bob的私钥,而这私钥就是公钥的2个质因数之一。 这公钥—私钥的架构可以用电子邮件来打比方。在此例中,Bob的公钥是他的电子邮件住址,是公诸于世的。要送给Bob的信息写在信中是受到保密的,只有Bob收到信件登入、输入自己信箱的口令(也就是私钥)后,才可以取出信息。 RSA-2048的安全性依赖于用传统计算难以分解大数的质因数此一事实,而AES-256的安全性来自于对金钥查找的困难。不幸地,量子计算的出现摧毁现存的加密体制,量子计算的萧尔演算法—只要有足够的量子算力—可以有效解决大数质因数分解的问题;葛罗夫演算法可以有效地解决查找的问题。这也许是量子计算机未来问世对世界的少数负面冲击之一。 幸好量子计算不是万能,不是所有的数学难题都可以解决的。量子计算能解决数学问题的范畴为有界误差量子多项式时间(Bounded-error Quantum Polynomial Time;BQP)。 由于现存通讯安全体制在量子计算出现后可能会崩溃,业界早已开始筹划后量子时代的安全通讯机制,其中的安全机制之一是于量子通讯(quantum communication)網絡上的量子金钥分发(quantum key distribution)。量子通讯網絡具体例子为中国连接北京、济南、合肥、上海及从这些节点衍生出的網絡与墨子卫星所构成的量子通讯干线。量子通讯的安全机制依靠的是物理,即量子信息是无法被复制(non-cloning)的,任何窃取其上信息的企图势必将破坏信息,因此窃取信息的企图是枉然的,加密用的金钥于其上传送也是安全的。 另一个机制是后量子加密(Post-Quantum Cryptography;PQC)。此方法沿用目前通讯架构,但是改善加密的措施,借以对抗量子计算破解加密,这是目前业界关注的焦点。
资通讯工程师的职涯思考
一位资通讯工程师该如何规划人生?这个问题,在今日快速演进的科技产业中,显得尤为迫切。或许,我们可以从一位冷战时期的科学家手中找到些许启发。在杭廷顿图书馆的特藏室里,我看到一份泛黄的手稿,标题为〈坦率的职涯思考〉(Candid Career Thoughts; 图一),署名者是惠伦(Albert "Bud" Wheelon,1929~2013)。这份笔记写于1965年7月18日,当时惠伦年仅37岁,正值职涯高峰。惠伦是一位才华洋溢、极具前瞻性的物理学家。他毕业于麻省理工学院,并曾于加州理工学院任教。在冷战期间,他迅速崛起为美国情报科技核心人物,担任中央情报局(CIA)科学与技术部副主任,是美国早期卫星侦察計劃的关键推手之一。在1962年古巴飞弹危机中,惠伦参与设计的「锁眼」(KH-7 Keyhole)卫星为美方提供重要的图像情报。然而,这位深居情报高层的科技巨擘,也有著对人生节奏与家庭关系的深刻反思。在〈坦率的职涯思考〉中,他坦言:「金钱与经验是目标。」这句话表面看似功利,实则映照出他当时身处机密工作的现实条件与自我期许之间的拉锯。他在笔记中写下未来愿景:一份工程师式的愿望清单,也是对「如何过生活」的认真计算。他写道:「我希望能在40到43岁之间放慢脚步,过上一种有回报但不奢华的生活,好让我能享受孩子的成长,并在年老、坏脾气与病痛来临前,好好与妻子共享人生。」这样的规划在当时堪称前卫。当时的科技与国防圈普遍奉行高强度、长工时的奉献文化,尤其在情报机构任职,更难谈及生活的平衡。但惠伦不满足于成就,他渴望一种「全人」式的成功,既在专业上发光发热,也在家庭与身心健康中找到持久的回报。隔年,1966年,惠伦离开政府体系,加入了休斯飞机(Hughes Aircraft)。这家公司是当时电子与航太科技的重镇,承接大量军方与NASA合约。惠伦在那里逐步晋升,最终成为董事长与CEO,主导早期通讯卫星与雷达系统的商业化。他的这次转职,并不只是升迁与加薪的选择,而是一次价值观的调整与实践。从笔记内容可以看出,他早已盘算一条更宽容、却不失成就感的道路。休斯为他提供更大弹性与家庭时间的可能性,而他也逐步实现当年笔记中写下的承诺。惠伦的这份手稿,不只是职涯备忘录,更是一面映照现代工程师处境的镜子。在人工智能、網安、太空商业化等浪潮交错的今日,许多资通讯人才依然面临著与半世纪前相似的抉择:要全力冲刺还是及早转舵?要追求专业巅峰,还是规划身心平衡的长期发展?「慢下来不是逃避,而是选择。」惠伦37岁那年写下的这句思考,如今读来依然清晰有力。当我们不断优化演算法、提高帶寬、压缩延迟的同时,是否也该为人生中家庭、健康、时间等其他變量保留余裕?惠伦的故事提醒我们,工程师的人生不必只有线性成长的KPI,也可以有曲线调整的智能。科技强人,也可以是温柔规划生活的实践者。他的〈坦率的职涯思考〉,不仅写给自己,也默默地写给后人,尤其是每一位在高压产业中寻找节奏的我们。
臺湾电子制造服务业养成记:PC、手机、AI服務器以及与半导体的深度结合
PC的问世提供臺湾制造服务进一步演化的机遇。 1974年微仪遥测系统公司(Micro Instrumentation and Telemetry System;MITS)发表Altair8800,之后还有初期的苹果(Apple)电脑。但是IBM PC于1981年问世后才让PC大量进入市场。 臺湾在1984年才开始承接PC的制造服务,此时臺湾却已非昔日吴下阿蒙。首先,第一家提供PC制造服务的宏碁已有自有产品「小教授」,虽然是比较适合于特定用途如训练与教育等领域专用机种,但是已有自己设计的能力,可以同时承接原始设备制造(Original Equipment Manufacture;OEM)以及更进阶的原始设计制造(Original Design Manufacture;ODM)等2种服务。到了1988年,臺湾已经成为仅次于美国的PC出口国;到了2000年初,全世界有80%的PC出于臺湾。 这段经历对臺湾有2个重要意义。一个是对于臺湾刚起步的半导体产业提供了初试啼声的近端市场。芯片供应商包括威盛、矽统、扬智、钰创、华邦、联电、臺积电等,这些芯片供应或制造商在80年代末、90年代初陆续的加入电脑零件供应商的行列。以中国的术语来说叫做国产替代,而且零件能自己供应的比例愈来愈高,可以制造的电子系统种类也愈来愈广。 对于半导体产业,这是成长的沃土;对于电子制造服务业,这是加长供应链的战略纵深。 90年代中期臺湾几家电子制造服务公司开始研发移動通讯,97年起开始2G GSM手机的OEM/ODM业务,业务模式一如之前PC的电子制造服务。 从智能手機時代起,电子制造服务产业将部分产能移至中国,持续扩大其制造产能。 2000年代中期,臺湾开始服務器的EMS/ODM业务。到了2018年,所有主要电子制造服务公司已经能制造完整的服務器以及边缘计算(edge computing)设备。 2022年末,臺湾开始迈入人工智能服務器的制造服务领域。到2024年,臺湾生产的人工智能服務器占全世界93%。除了原先PC、智能手機已然的制造服务优势持续奏效外,另外在半导体累积的经验,包括尖端芯片制造以及先进封装加持下的多重优势价值链,这囊括的市占率似乎是理所当然。 这个电子制造服务的生态系似乎还有持续扩大的机会。在先进计算方面,人工智能的下一步目前近乎可及的题目是量子计算。包括IBM和PsiQuantum等使用不同类别量子位元的公司相继宣布通用容错(universal fault tolerant)、可以应用于解决实际问题的量子计算机将于2029年进入商业量产阶段。 臺湾对于量子计算的研发相较于国际领先群本来就启动时间较晚,而且投入的资源相对不足。IBM不久之前才宣布未来5年内在美国要投资1,500亿美元于量子计算的发展;如果包括制造在内,5年内总计3,000亿美元。与此相较,臺湾对于量子计算技术的投入太迟又太少。 但是如果不是想赚取「先进研发利得」(advanced research gain)的话,臺湾仍然可以用电子制造服务来参与新兴领域,分取红利。 目前NVIDIA先进计算架构已经将量子计算整合入既存的人工智能服務器架构,规划CUDA-Q。臺湾的电子制造服业在近年来已经开始启动量子计算的研发,虽然能量不足以挑战世界已先行多年的发展领先群,但是藉目前已开展的人工智能服務器的巨大翻展动量,以后发的研发来了解新科技,加入下一阶段的发展,这个策略还是有机会延续臺湾电子制造业的优势。
智能应用 影音