院長說院史(2):台灣第一座國立資訊學院
2007年初,交通大學校長換屆,資訊學院院長林進燈轉任教務長。新任校長吳重雨指示我接任院長,同年2月正式上任。任內我推動3項核心改革:首先,建立原資工與資科教授的共治機制,加速兩系融合;其次,創立聯席會議制度,將傳統三級三審的會議流程簡化為二級,大幅提升行政效率;第三,確立「應用型研究」為學院定位,並與電子資訊中心攜手推動大型產學合作,為學術與產業接軌奠定基礎。我始終強調「可執行性」的管理哲學:決策必須具體明確、務實可行。為消弭系所合併後的本位主義,我邀請前資科系主任簡榮宏出任副院長,曾煜棋為資工系主任,同時賦予各研究所所長副系主任職權,建立責任分明的治理架構。人事安排考量專業能力,同時兼顧系所平衡與長遠發展。在評鑑機制方面,我們選擇不參與IEET認證,僅採教育部評鑑為基準。作為當年全台唯一未參與IEET的工程學院,這項決策避免教研團隊陷入形式化文書作業。我堅信:「教授應將精力投入教學與研究,而非應付評鑑文書。」此理念獲得同仁廣泛認同。學院定位承襲貝爾系統(Bell System)應用型研究精神,強調技術落地與產業價值。當時台灣應用研究多集中在「發展」端,而美國「研用融合」的模式更具啟發性。為此,我邀請工研院資通所所長林寶樹擔任學院的講座教授,其於2009年接掌交大電資中心後,我們共同實踐「電資中心與資訊學院互為延伸」的願景:重大計畫由電資中心統籌、學院教授參與;一般計畫則由教授獨立執行,形成雙向研發循環。在產學合作方面,我主導成立中華電信在交大設立研究中心,並於日後擔任副校長時,將此經驗推廣至全校,創建校級研究中心制度。第一個校級中心是與聯發科共建的平台,接下來則有台積電、廣達、研華、華邦等指標企業相繼進駐。這些中心設有專屬行政窗口,簡化統整智財管理與財務稽核流程,使企業能視研究中心為其研發部門的延伸。同時,我們首創「研究生工作年資認定」制度,強化企業留才誘因,實現產學研三贏。進入AI時代,我認為資訊學院應與台南校區的AI學院深化整合:前者鞏固資通訊核心技術,後者注入AI研究能量。企業如今已從「工具應用」轉向「流程革新」的AI思維。2024年,華邦電子研究中心選擇落腳本院,正是看中AI驅動IC設計的跨界潛力。展望未來,資訊教育須超越技術傳授,著重培養2項AI難以取代的核心能力:批判性思維與原創性。唯有如此,學子方能在智慧浪潮中彰顯人類智慧的真諦,這正是我對學院發展的最終期許。
院長說院史(1):台灣第一座國立資訊學院
交大友聲雜誌《院長說院史》專訪歷任資訊學院院長。身為2007至2011年間任職的院長,我接受藍麗霞女士訪問,回顧從學院草創至系所整合的關鍵歷程。「故事要從2004年前說起。」我循著時間軸展開敘述。早在1997年擔任資訊工程學系主任時,我便注意到一項結構性矛盾:交大原有資訊工程系(資工)隸屬工學院,資訊科學系(資科)則隸屬理學院。自1994年併入新設的電機學院後,兩系在定位與角色上日漸模糊,不僅反映軟硬體學科間的不當分野,更直接影響招生策略與發展方向。儘管當時已有合併構想,但「電機學院下設大型資訊系」的框架引發疑慮,計畫始終未能實現。為尋求突破,1999年卸任系主任後,我專程拜訪華盛頓大學指導教授Ed Lazowska。該校資訊系的跨域發展模式印證我的想法:「資訊學科不該被動地附屬於電機體系,而應主動建構多元的研究範式。」Prof. Lazowska 更提出資料科學的運作,如何將學院算力放置雲端。這些前瞻見解在當年的台灣是聞所未聞,更進一步重塑我的思維。從2000到2004年,我一直宣揚一所獨立資訊學院的想法。在當時交通大學電機電子主導工程學科的架構下,推動資訊學院獨立無異於挑戰傳統體制。所幸在張俊彥校長與蔡文祥教務長的支持下,學院籌備工作正式啟動,由蔡教務長領銜規劃。受Prof. Lazowska啟發,我建議「一系多所」的創新架構:大學部整合為單一學系,研究所則依應用領域分設。這項打破常規的提案遭質疑,因為資工與資科兩系都怕被對方併吞,淪為二等公民。最終在蔡教務長的關鍵協調下完成合併。2005年8月,交大成立全台首座國立大學資訊學院,原資訊工程系與資訊科學系合併為核心單位「資訊工程學系」。回望當年,「一院一系多所」的設計不僅健全學院體質,也開啟跨領域合作的新路徑。學院成立後,我選擇退居幕後,未參與首任院長遴選。
台灣量子電腦的發展策略
當IBM Condor的量子位元數已經高達1,121個、Atom Computing Phoenix的量子位元數也已達1,180個,台灣的量子計算研發2024年才剛剛跨出5個量子位元的原型(prototype)量子計算機的第一步。 量子計算的量產也許不會在立即的未來發生,但是也不會太遠,至少目前各方矚目的PsiQuantum預計在2027年年底開始量商用的機型,並且在2029年達到全尺寸容錯(fault-tolerant)系統。 量子計算的商業應用有很大的機率如同人工智慧般產生巨大經濟價值而重新分配財富,而新財富的分配通常只限於創造經濟價值的參與者。以目前在量子技術核心量子位元(qubit)及量子閘(quantum gate)還遠遠落後前沿科技的開發進度,台灣在未來的量子世代還有機會在科技新世代分到相應貢獻的經濟價值嗎?答案是有可能的,而且已經悄然發生中。 看現在的人工智慧伺服器(AI server)便可以明白台灣會以怎樣的策略切入這明日之星的新產業。 其實台灣的產業幾乎沒做過基礎科研,除了台灣基礎科研的整體體量較小外,對於公司資源的配置,也有基於公司經濟尺寸的現實考量。 要在新領域獨占鰲頭,要做長時間、領域廣泛的研發投入,後者基本上是保險策略。極致的例子是IBM以前Watson Lab的風格,機構可以供養科學家以及研究經費做與公司業務沒有直接關係的基礎科研,甚至因為這些工作而獲得諾貝爾獎! 台灣的公司絕大部分是中小型公司。即便像台積電在台灣排市值排名第一的公司,在本世紀之前也未能進入全世界前100大之列。因此對技術硏發的策略長期偏向於做短、中期的技術發展(development),題目的選擇與短期內訂單的可見度有明顯的相關。採用這樣策略的風險較低,資金的利用效率較高。以產業內較直白的話來說,就是不見兔子不撒鷹。 不從先期的基礎科硏下手、取得先行者的有利位置,卻冀望取得產業帶來的利益分配,靠的是什麼?答案是供應鏈。 一台量子電腦會大致有下列模組:量子處理單元(QPU;Quantum Processing Unit)、控制和讀取電子設備(control and readout electronics)、同相/正交混頻器(IQ mixer;In-phase/Quadrature mixer)和FPGA 板、低溫系統(cryogenic system)和真空系統、經典處理(classical processing)及回饋系統、軟體堆疊(software stack)、校準和診斷工具(calibration and diagnostic tools)等。這些模組各負責一些功能,譬如經典處理及反回饋統統中就包含經典伺服器及糾錯控制器(error correction controller)。 以IBM最近1,121位元的Condor這款發展過程中的原型機為例,零組件的數目大約在11,000~16,000個之間,供應鏈的公司數在150~200個之間,但這數目只適用現階段的原型機。如果是商用的機型,零組件數輕易會上數十萬,因為有些零組件會隨位元元數線性成長的。 對照於NVIDIA DGX GB200 NVL72的AI伺服器,其中也有10個出頭的模組,合計有大約100,000~200,000個零組件。雖然其中主要的GPU不是台灣設計的,但是晶片製造之後全在台灣。台灣AI伺服器的出口,2024年佔全世界93%,這是台灣在此領域150~200家供應鏈力量的展示,而這力量是沿承自90年代的PC/NB供應鏈。記得90年代PC/NB產業的口號嗎?除了CPU,我們什麼都有。供應鏈不是可以一蹴而就的,因此也很難突然被取代。 未來的先進計算,如果含量子計算,很大機率是包含AI伺服器的混合伺服器(hybrid server),而且現在的量子計算機就已經包含伺服器。 所以台灣合理、合時宜的量子計算發展策略就是依著沿PC、AI伺服器的供應鏈思路,以供應鏈的方式參與新產業的興起。 台灣的幾家電子製造服務公司(EMS)都已經開始踏入這個領域。有的從0開始,建立量子位元研發團隊;有的投資量子新創,同時建立公司內的量子團隊。如果沒法在最關鍵的研發領域領先,至少先暖身一下。畢竟量子不像傳統的電子產業,觀念上需要跳躍性的前進。 這樣做有異於不見兔子不撒鷹的傳統原則嗎?並沒有。產業鏈龍頭企業NVIDIA已經提出CUDA-Q的架構,也有報導在評估投資量子計算新創公司的打算。兔子已經在視線之內了,正是撒鷹時機。
軍事通訊—說碼人加密
軍事通訊技不斷精進,操作通訊系統的兵種就愈分愈細,最早只要一個旗兵。進入電子戰後,通訊兵的分工還挺細的。例如話務通訊兵負責發送訊號,而譯電通訊兵負責接收訊號。在體制上雖然是不同功能,但作戰時,可沒有那麼講究排場,話務和電譯就由同一位通訊兵包辦。這個兵種往往腦力操勞,要背誦一堆編碼,防止通訊的內容被竊聽。如何想出讓敵人無法破解的密碼,更是兵家必爭。第二次大戰時,德國使用Enigma加密機,配備於U-boat潛艇,行跡飄忽不定,在大西洋擊沉大量盟軍船隻,急得英國首相邱吉爾(Winston Churchill )直跳腳。今日以自然語言AI技術模擬通訊者的生物特徵及說話特性,成為加密的金鑰,產生AI說碼人系統的發展是一個令人感興趣的領域。模擬通訊者的客製化特性,成為加密的金鑰,軍隊早已採用,是所謂的「說碼人」(Code Talkers)加密。說碼人其實是話務/譯電通訊兵,不同之處是他們像中國以前祕密幫派,會中兄弟談機密時,就說起「幫派切口」,旁人聽不懂。甲午戰爭時清朝曾以溫州話加密;第一次世界大戰時,美國採用巧克陶族(Choctaw)的印第安語傳送機密軍事訊息,成功地攻擊德軍。德、日兩國學到教訓,在第一次大戰後送一堆學生到美國學印第安語如Cherokee、Choctaw,和Comanche。美國軍方發現此一現象後,擔心德、日兩國有能力解碼,曾經考慮放棄「說碼人」制度。此時一位工程師,也是第一次世界大戰的退役軍人江士頓(Philip Johnston)建議以鮮為人知的納瓦荷語言來編碼。江士頓從小生長在納瓦荷印第安保留區,和納瓦荷族人交往,熟悉納瓦荷語言及習俗。納瓦荷的語言結構複雜,較以前的印第安語言更適合用於加密。經過江士頓展示後,美國海軍陸戰隊決定採用這個提案,立即徵召僱用29名納瓦荷族原住民,由他們開始編碼工作,總共使用411個字彙。海軍陸戰隊在第一層編碼上再以字詞取代(Word Substitution),做第二層的加密,例如「Gini」這個納瓦荷字翻成英文是「Chicken Hawk」,而真正的軍事用語是「俯衝轟炸機」(Dive Bomber)。第二次大戰期間美國總共動用400位納瓦荷族的說碼人,這個密碼一直到大戰結束,都未曾被破解。很諷刺的是,1861年時,美國白人將最早的旗語通訊用於和納瓦荷族的作戰,而在第二次大戰期間卻靠納瓦荷族來協助美軍進行作戰通訊,編入美國海軍陸戰隊。2002年電影《獵風行動》敘述1944年,美軍在太平洋塞班島戰場上,納瓦荷族說碼人的故事。這部電影點出很基本的人性問題。軍方必須全力保護「加解密機」,可是當說碼人這個「人肉加解密機」有落入敵人手中的疑慮時,必須先行毀滅。奉命執行毀滅任務的同袍如何下得了手?這個矛盾成為電影詮釋的重點。當前科技發展已經實現加密的自動化和數據化,不再需要人工的介入。然而,利用自然語言人工智慧(AI)技術來模擬通訊者的生物特徵和說話特性,作為加密的金鑰,這是否能夠強化加密的效果呢?AI說碼人系統的發展是一個引人注目的領域。通過應用自然語言處理和機器學習技術,AI能夠模擬通訊者的生物特徵和說話風格,成為加密的關鍵。然而,要建立一個全面且安全的說碼人系統,需要深入瞭解特定語言、方言以及文化背景。此外,發展強大且安全的通訊系統還需要考慮超越僅透過文字互動可以實現的因素。目前,AI說碼人系統的發展仍需更多的研究和努力。
Edge AI產業來了嗎?
相較於目前大語言模型應用絕大部分在雲端伺服器上推論,Edge AI(邊緣AI)強調在裝置上獨立執行AI模型。這種架構差異在於:可大幅降低因網路傳輸造成的延遲,確保即時反應,即使在無網路離線下也能運作;資料不上傳雲端,確保資料私密與安全性。Edge AI有機會滿足許多新應用場域中對低延遲、高私密的關鍵要求。這半年來,透過技術突破、產業需求,以及發展軌跡,我們看到Edge AI的產業輪廓,正逐漸形成。模型演算法的高度競爭使得Edge端可用的AI模型愈來愈強大。近年來出現許多參數量在13B~70B級的精簡模型,透過知識蒸餾、量化壓縮、模型剪枝以及多專家混合(MoE)等技術,這些小模型在使用較少參數的同時還能大幅提升性能,縮小與大型模型的差距 。同時也配備了各種終端應用極度關鍵的推理(reasoning)能力,包括控制、決策、因果、規劃等。SoC與記憶體規格配置同樣是促成Edge AI崛起的要素。目前主流高階智慧型手機、NB的NPU(AI運算核心)已經接近100 TOPS,足夠讓這些終端模型每秒生成數十個token(語意單元),滿足應用場域(文字、語音對話)的生成品質要求。同時,透過低位元精度(如8或4位元)來表示模型權重,有助於大幅降低總位元數,使現有記憶體配置即可支援終端AI推論,釋放AI從雲端走向終端的巨大潛力。另一方面,各大廠商也在其晶片產品藍圖中,明確規劃未來的算力提升,進一步強化Edge AI可行性與效能。在初期應用情境中,智慧型手機成為Edge AI生態重要橋樑。手機不僅是首批受惠於AI能力提升的裝置,更自然作為雲端與各類在地智慧裝置之間的橋梁。透過手機,無線耳機、汽車、AR眼鏡等裝置都能與雲端和手機上的AI模型連動,實現多模態的Edge AI應用。例如,耳機可使用手機(AI模型)即時翻譯語音,車載系統可依靠手機輔助娛樂訊息,眼鏡則利用手機處理視覺、語音任務。智慧手機作為隨身超級終端,串聯各種周邊裝置,歷史軌跡也告訴我們,當網路封包(packet)的成本逐步下降,通訊功能便普及至各類終端設備。10年後(2017 年),行動產業達到高峰,無論是應用生態系或硬體供應鏈都蓬勃發展。同樣地,隨著token成本不斷下降,AI 能力延伸至新型態終端設備,觸發全新應用場景,也是值得期待。延伸報導專家講堂:鑑往知來:packet(網際網路)vs. token(大語言模型)垂直產業中也聽到應用面需求。過去手機SoC供應商的技術團隊,首要工作是優化品牌手機中相機應用的智慧功能,但從2024年開始,優化手機中LLM執行效率,成了品牌客戶的關鍵需求。工業場域中,也對於推理功能加速決策效益,工業機器人的執行效率多所期待。過去幾年,NAS在中小企業中大量採用,年複合成長率超過 15%,顯示這類用戶對資料管理與在地運算的高度需求。如今,這些用戶也期待能在終端設備上,享受到大型語言模型所帶來的自動化與知識管理功能。近來市場數據也顯示Edge AI正逐漸萌芽。在最新的季報中,蘋果(Apple)新款M4晶片強調AI效能,推動2025年第1季Mac營收年增15.5%,更值得注意的是,新晶片也在2024下半年吸引新用戶進入蘋果體系。高通(Qualcomm)因手機與車用AI需求激增,手機業務創新高,汽車業務更年增55%,公司也宣稱「Edge AI是未來業務成長主要推力」。NVIDIA的Orin車用AI平台單季營收年增103%,並與聯發科合作布局一系列全新終端SoC。晶片設計商與設備供應商正從Edge AI中實際獲利。也同時看到OpenAI 以約 65 億美元的全股票交易方式收購了由前蘋果首席設計長 Jony Ive 共同創立的 AI 硬體新創公司 io。這股趨勢Edge AI已從概念走向實質商業成長。儘管前景看好,Edge AI推廣仍面臨多重挑戰。首先是應用場域的擴展:用戶需求差異極大,不同行業與裝置對模型大小、功能要求各異,業者須在通用性與客製化間取得平衡,如何取得具泛化能力的精簡模型,解決場域問題,至關重要。其次是功耗與效能的權衡:終端裝置受限於電池與散熱條件,高複雜推理恐導致過熱與續航縮短,對晶片設計與電源管理設下更高要求。再者,生態系初期碎片化,硬體架構多、軟體缺乏統一標準,讓開發者必須針對各平台個別調適,增加成本與阻礙創新。這些挑戰若未克服,恐將削弱Edge AI的經濟性與可擴展性。不過,回顧行動產業的發展歷程,也為今日的Edge AI前瞻團隊提供寶貴借鏡。
鑑往知來:Apps(行動網路)vs. Agents(大語言模型)
在前一文中,我們類比網際網路(Internet)以及現今大型語言模型(LLM)的發展軌跡,特別是網際網路的核心傳輸單位—封包(packet),LLM生成單位—語意單元(token),在基礎設施、商業模式發展上呈現出明顯相似性。透過回顧packet的發展路徑,我們試著描繪出token驅動的AI未來發展軌跡,並預判在產品形態、服務模式與產業價值鏈上的可能樣貌。另一可供借鏡的歷程,是應用程式(App)在行動網路時代所引爆的創新與變革。如今,在LLM/LVM多模態大模型推動下,一個以「Agent」為核心的應用生態正逐步成形。延續上文,我們嘗試從App的崛起歷程,看見代理(Agent)以及邊緣AI(Edge AI)未來的可能路徑。2007年開始,行動App實現即時互動與高速資料交換,行動用戶大量增加,源自於網路封包傳輸成本逐步下降,智慧型手機的運算效能與續航力的進展。App Store的出現更將過去分散、複雜的網頁互動模式,整合為圖形化、易於操作的應用程式介面,大幅降低使用門檻,使數位服務真正「行動化」、「普及化」。App 不再只是單一功能工具,更透過推播、定位、社群整合等特性,深度嵌入使用者生活。這也帶動「長尾效應」—不僅少數爆紅應用,而是無數利基型App滿足多元、個人化的需求。這場從網頁到App的轉變,不只是介面革新,更興起全新App驅動的生態系,翻轉整個數位服務的生產與分配模式,也同時快速推升行動裝置的需求(2017年達到高峰)。App Store 建構出一套雙邊市場機制,一端連結開發者創新、另一端連結全球使用者,使原本無法規模化的服務得以商品化、在地化與全球化。過去嶄露頭角的數位服務如Uber、LINE、Instagram皆倚賴App生態興起,而App的爆發也帶動晶片、感測器、模組、電池、記憶體等硬體需求,重塑行動裝置供應鏈結構,並促成新興品牌與 ODM/OEM 的崛起。Statista統計顯示,全球App下載量自2010年的60億次,成長至2023年的1,430億次,反映出App模式背後強大的規模經濟與網路效應。台灣廠商在這波行動化浪潮中,從晶圓代工、封裝測試到系統整合與 App 開發皆深度參與,建立完整供應鏈與生態網路。這段歷程不僅重塑行動產業結構,也為即將興起的AI代理(AI Agent)模式提供寶貴借鏡——當使用者介面再次從App進化為Agent,我們是否能搶先洞察使用需求、運算架構、標準制定與硬體整合的關鍵優勢?如果App是行動網路時代的使用介面,那麼由大模型LLM/LVM驅動的Agent,可能是 AI 時代的核心入口。Agent不僅理解自然語言(及各種感測訊號),還得具備任務規劃與執行能力,從單純對話升級為數位助理。透過多模態推理與工具鏈結,Agent的應用場景正快速擴展至自動化工作流程、專業諮詢、教育訓練與知識輔助等領域。未來極可能出現類似「Agent Store」的新型生態系,就如當年App Store一樣,匯集多樣化、可重組的智慧模組,滿足多樣性需求。這將加速硬體與軟體的分工整合,促進各種垂直應用場域(如工業、醫療、中小企業、消費者市場)中智慧代理的落地機會。隨著近來高效率推理模型的快速演進,以及LLM開源生態的蓬勃發展,更進一步推進這樣的可能性。同時,終端市場的實際需求也正在浮現,如中小企業的知識管理、自動化應用,以及工控領域中即時推理能力的渴望,也回應了市場的需要。終端裝置的硬體規格,也逐漸具備支撐Agent所需的AI算力與記憶體條件。隨著LLM開源社群快速演進,如13B等級模型已能在一般行動裝置上順利推理,token生成速度亦逐步接近應用需要,Edge AI的落地門檻正快速降低。根據預測,Edge AI晶片市場將自2023年的24億美元,成長至2033年的252億美元,年複合成長率高達26.5%。各大系統與晶片業者也已積極布局AI手機、車用SoC與AI PC平台。未來,Agent將可自然地嵌入手機、筆電、AR眼鏡、TWS耳機、機器人等多元終端裝置,成為新一代語言互動與任務導向操作的使用介面。當然,Agent技術的普及仍面臨諸多挑戰,除了使用者資料的授權與使用,日益增強的自主性也帶來安全、隱私、監管與倫理等層面的高度關注,技術本身的複雜度亦不容小覷。然而巧合的是,這些挑戰與機會的交織,恰如2007年行動網路時代初啟時的情境—從應用模式、生態系到硬體需求與供應鏈架構,皆醞釀著重塑的可能。Agent的發展,正釋出一種熟悉而微妙的訊號,預告另一波產業典範轉移的起點。
一個人武林的美麗與哀愁:論台積電的先進製程與封裝
從年初的CES 2025,3月的NVIDIA GTC,到4月台積電在北美的技術論壇,以及即將登場的COMPUTEX,這幾場科技大秀,在在顯示AI伺服器的發展與半導體先進製程及封裝技術,有著不可分割的緊密關係。幾年前NVIDIA執行長黃仁勳在媒體上說過幾次「摩爾定律已死」。當時我不太理解其中的涵義,直到最近讀完Stephen Witt所著《黃仁勳傳》(The Thinking Machine: Jensen Huang, Nvidia, and the World’s Most Coveted Microchip),才了解到個中道理。書中談論到由2012年到2022年,GPU運算能力增加10,00倍,其中屬於硬體的電晶體速度(clock rate)只增加2.5倍,換言之剩餘的400倍來自軟體程式及數學公式。400倍相對於2.5倍,自然會說摩爾定律已死,更何況NVIDIA在黃仁勳眼中一直是家軟體的公司。但是事實真的如此嗎?如果以NVIDIA GPU從2012年的Kepler到2022年Hopper GPU,製程技術由28奈米演進到4奈米,電晶體數目由71億顆,一口氣增加到800億顆;運算的單元CUDA core也從不到3000個,擴充到將近15,000個核心。雖然電晶體的速度僅增加2.5倍,但是由於單一晶片的運算核心的數目增加了,算力自然就大幅的提升。如果再加上CoWoS及3DIC的先進封裝技術,不僅將多個記憶體晶片(HBM)垂直堆疊在一起,而CoWoS技術更將GPU與記憶體晶片,能緊密地在水平方向擺放在一起。這些先進的封裝工藝,最重要的就是希望數位訊號這這些晶片中傳輸,能夠走最短的路徑。這樣一來不僅訊號傳輸的延遲可以縮短,功耗亦可以降低,算力自然就提升了。Blackwell GPU已經利用CoWoS技術,將2個GPU晶片無縫接軌地綁在一塊,下一代Rubin GPU將會擴充到4個GPU晶片連接一起。台積電更提出在2027年實現SoW(system on wafer)。也就是在矽晶圓上或其他形式的基板上,水平放置更多的GPU,甚至開始做GPU的堆疊。這些先進製程及封裝上的努力,無非是把更多的運算單元,及暫存的記憶資料,在很小的空間內完成執行,以增強其運算效能。依據此原則,同樣的在伺服器機櫃的設計,也是希望在一個機櫃內放置更多的GPU。因此GB系列一個機櫃內有72顆GPU,到了下一代Rubin會有144顆GPU,而Rubin Ultra更在一個機櫃內放置多達576顆GPU。機櫃的設計也由原先水平擺放的tray盤,改為直立式的插槽,以增加GPU密度。這一切硬體上的努力,無非是要提升整體的運算效能,但也衍伸出電源的供應及如何散熱的問題。GB伺服器系列一個機櫃所需的功率在120~150KW,Rubin Ultra將會達到600 KW~1MW。若是一個數據中心擁有500個Rubin Ultra機櫃,那就約略等於一個核子反應爐所產出的電力。屆時Rubin Ultra的散熱,恐怕只有浸潤式的液冷一途了。台積電在4月的北美技術論壇,在先進封裝領域著墨甚多。除了SoW、矽光子、3DIC之外,更規劃在電源最後一級的轉換IVR(integrated voltage regulator),嵌入至CoWoS內的中介層(interposer)。所以在先進製程上,台積電已經是一個人的武林,不久的將來在先進封裝領域,台積電會是另一個一個人的武林。一個人的武林所衍生出來的就是,如影隨行的反托拉斯法(antitrust)。為了淡化台積電在先進製程的主宰地位,董事長魏哲家曾建議將先進封裝也納入半導體的範疇,藉由分母的擴大以降低百分比率。然而目前實際上的發展,恐未能如其所願。英特爾(Intel)之前為了解決CPU市場獨佔的問題,不僅付給超微(AMD)一筆和解金,並技巧地讓超微成為有實力的競爭者。先進封裝相較於先進製程,可以有較多的可行解決方案,群策群力,不必然是一個人的武林。美麗與哀愁,端視我們的態度與做法。
中國曝光機發展現況:EUV
中國工信部宣布DUV訊息的同時,上海微電子也發布其2023年申請的EUV專利、2024年9月專利申請公開的消息。延伸報導專家講堂:中國曝光機發展現況:DUV上海微電子的EUV使用的也是現在商業主流的二氧化碳(CO2)雷射,波長為10.6奈米。鍚的液滴(droplet)先用釹釔鋁石榴石雷射(Nd:YAG laser)打成圓盤狀後,再被CO2雷射離子化(ionized)變成鍚電漿(plasma),然後其外層電子向低能量態躍遷(transition),釋出波長約為13.5奈米的光子。之所以要用如此複雜的工序來產生EUV光源,是因為在此波長沒有自然的物質的能階差可以產生如此短的波長。選擇13.5奈米是因為波長再短一些,就變成X光(0.01奈米~10奈米)。EUV也很可能是矽基半導體技術的最後一種光源。矽的共價鍵(covalent bond)長度為0.543奈米,而要形成一個塊材,至少也要有10幾20個原子,否則介面的效應就會嚴重影響電子於其中的行徑。13.5奈米光的解析度以及應有的工程努力如加大數值孔徑等—最多再加上多重曝光—要處理這樣的臨界尺寸儘夠用了。所以上海微電子的專利的權利請求(patent claim)主要在光源之外的系統。至於原型機或量產機型的交付,沒有官方宣布或較正規新聞。2024年12月30日哈爾濱工業大學因「放電等離子體極紫外光刻光源」工作獲得中國黑龍江省的科技創新成果轉化大賽的一等獎。這獎只是地方獎項,能引起後續新聞報導自然是因為它牽涉到EUV的光源產生。它產生光源的方式與前述的以CO2雷射來離子化圓盤鍚滴粒,藉以產生13.5奈米光源的工作方式—雷射產生電漿(Laser-Produced Plasma;LPP)不同,它是施加高電壓藉以離子化鍚滴粒產生13.5奈米光源,此種方法稱放電產生電漿(Discharge-Produced Plasma;DPP)。報導中說它產生的線寬較窄(narrow linewidth)—也就是所有光的波長較集中於13.5奈米、功耗較低。二者說法都有誤導之嫌。LPP與DPP產生的EUV光都不是相干的(coherent)。如果硬要比較的話,LPP產生的光線寬較窄,但二者均可以經濾光器(filter)將線寬控制在可接受範圍內。而DPP的原始功耗較低,恰恰好成為當初與LPP競爭成為EUV光源候選人時未能雀屏中選的主要原因。在相同的能源轉換效率(energy conversion efficiency)條件下,光源較高的功率輸出代表較強的光亮度(light luminosity),可以用較短的時間完成曝光,提高曝光機吞吐量。DPP EUV能量的提升(scale up)較為困難,因此用來當量產機台的光源挑戰也更大。最後是在2025年3月在《中國激光》期刊上中國中科院上海光學精密機械研究所由林楠領導團隊所發表的〈1um激光激發固體Sn靶等離子體EUV幅射特性實驗研究〉。林楠曾服務於ASML光源團隊,對此題目的產業商業化考慮應該十分熟悉。文章中的1微米固態雷射(solid state laser)使用的就是前述用來將鍚滴粒打成盤狀的Nd:YAG雷射。固態雷射由於其體積較緊緻(compact)、電光轉換效率(electrical-to-optical conversion rate)較高(~20%),而且目前輸出功率已達千瓦級,未來可能可以提升至萬瓦級,有望取代CO2雷射,成為驅動EUV的主要雷射。文中指實驗的能量轉換效率已達3.42%,若用已商業化的1kW固態雷射,已可來做曝光驗證、光罩檢測(mask inspection)等工作,並且在一定條件下,進一步用於先進節點的臨界尺度以及疉加精度的量測。也就是說,這是一個未來EUV機台的研究起始點。產業此時的現實考慮是從CO2雷射波長10.6微米轉換成Nd:YAG雷射波長1微米對於光源次系統是一個全新的轉換,所有的工程工作必須重新來過,而且CO2雷射用於LPP EUV商業化已久,目前的成本遠低固態雷射的。所以這個工作更傾向於對未來可能發展方向的研究準備,對於目前的先進製程的突破,短期間內是使不上力的。近期的這些報導距離真正的工程實施都有相當的距離,進步也比較片面。一個EUV曝光機包括EUV光源、光學系統、真空系統、光罩版台及夾具(reticle stage and clamping)、晶圓台(wafer stage)、熱管理(thermal management)、計量和感測器(metrology and sensors)、控制電子設備(control electronics)以及軟體及韌體(firmware),大大小小的零組件計100,000個以上,其中很多零件是專為EUV機台量身定製的。建立此一龐大、複雜、精確的供應鏈隊伍的難度,可能更甚於對單一技術課題的突破,我認為這是中國在發展自有曝光機的最大挑戰。
中國曝光機發展現況:DUV
在中美貿易戰中,美方施力的重點在於箝制中國高科技的發展的進程,特別是半導體、人工智慧和量子計算,而前二者息息相關。 在半導體方面,美國的管制近乎遍及全產業鏈,從設計工具(EDA)、產品、製程設備乃於材料的禁運,中國自然是以國產替代以提高自給率,這也是涵蓋全產業鏈的回應。 中國在半導體設備領域的弱點包括電子束測試機(e-beam tester)、離子植入機(ion implanter)和曝光機(lithography equipment)。 電子束測試機是量測機台,基本上是用來偵測除錯,不是製造過程的一部分。離子植入機—特別是高能量(~1MeV)的,對於高壓碳化矽(SiC)MOSFET的製程至關重要。現在的電動汽車電壓已早從600V邁向800V、1200V。沒有高能量離子植入機無法製作車規高壓功率元件,對於中國電子產業的零件自製率影響巨大。 最令人關注的自然是曝光機(lithography equipment)。曝光機的能力代表先進製程的終極解析度(resolution),又與先進技術節點(technology node)直接相關。先進製程的主要應用之一是與算力高度相關的各式XPU,特別是專注於人工智慧應用的GPU;另一個應用也是在人工智慧晶片架構中的高頻寬記憶體(High Bandwidth Memory;HBM)。 從2024年9月起,中國就陸陸續續的傳出各式曝光機進展的相關消息,對於全世界的半導體產業,這自然是頭等的新聞焦點。 首先是中國工信部指導目録中的DUV曝光機,在2024年9月公布。 本質上,這就是一台乾式的DUV曝光機,光源是氟化氬(ArF)的準分子(excimer)雷射,氟化氬雷射波長為193奈米 。 此曝光機的解析度為65奈米,如果假設系統中其他性質都已達最佳化,則其物鏡(objective lens;系統中用於收集光線、用以呈像的主要透鏡)的數值孔徑(NA,愈大解析度愈好)推算起來大概是0.75。如果要進一步改善解析度,還要經過另一陣子的努力以達目前產業前沿水準0.93的數值孔徑。也就是說,在光學系統的發展目前還處於較早期階段。 至於其疊加精度(overlay accuracy;上下層圖案的對齊精度)為8奈米。要能產生65奈米臨界尺寸(Critical Dimension;CD)的製程,上下層的疉加精度要達臨界尺度的20%左右,也就是13奈米。如果要做雙重曝光(double exposure),則疊加精度必須提高到13/2奈米=6.5奈米。顯然此台曝光機目前的解析度就是65奈米,而且無法透過雙重曝光的手段進一步提升製程的解析度。 再往前的路,除了前面所述在物鏡的數值孔徑需持續提升之外,另外還需要往浸潤式(immersion)方向移動,利用水的折射率(refractive index)1.44較真空的折射率1為大的因素,提高曝光機的整機解析度,這樣才可能達到28奈米的解析度。至於像FinFET這樣的精密元件,部分製程就要動用到雙重乃至於多重曝光。浸潤式曝光機使用新機制以改變波長,自然要面臨新的問題,譬如水的純淨度的控制以給水溫均勻恆定的維持等。這個部分自然也有機構早已從事研發,譬如中國中科院長春光學精密機械與物理研究所正在開發的數值孔徑為0.8的浸潤式物鏡;承擔浸潤式曝光機的光源攻關任務的是中國中科院光電院、微電子所孵化出來的科益虹源;電源模組則是由中國中科院安徽光機所的團隊承擔開發任務。多梯次技術平行開發是可以想像的技術發展方式。 自2023年以來偶有上海微電子已開始交付其28奈米浸潤式DUV的新聞,機型為SSA/800-10W,疊加精度為1.9奈米,最近一次的傳聞為2025年1月7日交付。惟上海微電子公司產品目錄無此型號,沒有官方發布,亦無可靠媒體報導。根據其型號中的10W字樣,此機型最多為原型機,因為其光源能量不足,無法支撐量產所需之吞吐量(throughput)。這條工信部指導目録的消息沒有公司送原型機(prototype)到晶圓廠用線上製程調適機台的後續報導,所以出貨與否未可知;而且從原型機到量產機,總是要有好些時日。 至於前一代的90奈米 DUV機台已自2022年交付過幾台,初期主要的問題是系統不夠穩定、down time太長、因光源功率不足(20W)致使設備吞吐量太低。所以,這條新聞對於中國積極發展曝光機國產替代的意義要重於先進技術的實際突圍。
DRAM 製程發展方向:3D DRAM
從20奈米以後,DRAM製程開始龜速前行。從19奈米到11奈米之間,以每次1~2奈米的速度進展,跌跌撞撞地經歷1x、1y、1z、1a、1b、1c以及未來的1d,共計7個製程。雖然現在仍使用平面(planar)DRAM製程,卻早已經大幅的利用與晶圓垂直的第三維度,使得DRAM在效能、功率上,還能有實質的提升;在晶片的密度上進展比較遲緩,看來有點雞肋,但是對於有些應用—譬如高頻寛記憶體(HBM),稍為提升密度還是有實際用處的。要達到HBM每個世代的記憶體容量標準,只有特定的製程世代有能力提高到如此高容量的記憶體晶片。但是在每位元成本方面,製程的推進因為製程變得複雜,對於降低位元成本已毫無貢獻。以三星電子(Samsung Electronics)現在的1b製程為例,就使用5層EUV,因而所費不貲。DRAM市場短期內不會平白消失,但是如果其製程推進還是繼續如此緩慢,仍然會逐漸失去其高科技產業的特性;高科技產業之所以能獲取高額的利潤,是因為其科技的快速推進可以重複運作。現在DRAM製程的緩慢推進、乃至於停滯是DRAM業者共同的夢靨。10奈米以下,目前各DRAM業者共同的技術推進方向大致是3D DRAM,只有三星會在1d製程之後試圖導入垂直通道電晶體(Vertical Channel Transistor;VCT)。垂直通道電晶體基本上是將晶圓上平面電晶體的結構豎著長,減少每記憶體單元的底部面積,從傳統的6f2縮小為4f2,其中f(feature size)為半導體製程的特徴尺寸,譬如半金屬間距(half metal pitch)。這樣的製程推進,大概稍大於10奈米級製程推進一個世代的效益,然而這只是一次性的方法—下一步可沒另一個方向可以再利用了。最主要的是垂直通道電晶體與未來的3D DRAM製程完全不沾邊,研發的努力只能使用一陣子。因此並不是所有DRAM公司都做此想。3D DRAM的引入第一個問題不是為何要引入3D製程,而是為什麼到此時才引入3D製程?畢竟所有的DRAM大廠都有3D NAND的技術。當2013~2014年3D NAND技術開始被引入時,DRAM的製程也早已在25~20奈米左右,即將進入龜速前進的10奈米級製程年代。用已經成熟的3D製程技術來推進舉步維艱的DRAM製程似乎是理所當然。問題還是出在DRAM的結構上。一個線路要能夠用3D製程來製作,有幾個先決的條件。首要的是線路要有高度的重複性,無疑的,記憶體的陣列是3D製程應用的首選。在此點上,DRAM是符合的。再來是各層記憶體之間要有可以共用的材料。以TCAT(Terabit Cell Array Transistor)3D NAND的技術為例,各層之間記憶體單元的閘極控制(gate control)材料複晶(polysilicon)以及電荷陷阱(charge trap;用來儲存NAND訊號的單元)材料氮化矽(silicon nitride)是可以在各層之間共用的,因此垂直方向的製程整合相對簡單,32層的記憶體可以用4、5層光罩來完成。但是3D DRAM的結構就沒有這麼幸運,電容部分必須完全隔開以避免記憶體單元之間的訊號交談(cross talk);通道部分因為DRAM追求高機動性(high mobility),不能用在高寬高比深溝中的輕摻雜(light doped)複晶做半導體,各層記憶體之間可以共用的材料只有字線或位元線,端看3D DRAM是要求垂直製程的簡化或面積的極小化。另外,DRAM效能遠比NAND為高,所容許的訊號延遲(latency)很低。各層記憶體之間因緊密相鄰所產生的感應電容(induced capacitance)等效應都會降低DRAM的表現以及訊號的協同,因此3D DRAM的確比3D NAND的工程問題要複雜得多,這也解釋為何3D DRAM製程遲遲沒有上路。無論如何,DRAM產業維持高科技產業特性除3D DRAM外已幾乎沒有前路,譬如以前在文獻中經常被提及的無電容(capacitorless)DRAM,其資料保留時間(data retention time)遠不能與目前的DRAM相比。2023年7月長鑫在IEEE的International Memory Workshop發表其對3D DRAM的規劃,三星也在同年的Symposium on VLSI Technology and Circuits發表其3D DRAM的技術論文。可見關於3D DRAM的議題各公司早已準備很久,只是研發結果發表的時機及場合各有考量罷了。根據長鑫的設計,2D DRAM的電容—電晶體垂直堆疊的組合在3D DRAM中就被橫擺著成為一層中的一個記憶體單元。長鑫模擬出來的記憶體單元有多大呢?橫躺的電容約500奈米、電晶體200奈米,加上字線和位元線,一個記憶體單元橫方向的尺度接近1微米。長鑫採取的製程是字線垂直到下邊的接觸平面,這個做法會讓記憶體單元的面積稍大,但是垂直的整合製程會比較簡單。在技術發展的初期,先做出來再做好是合理的策略。至於記憶體陣列旁的周邊線路(peripheral circuits),師3D NAND的故智,會在另外的晶片上製造,然後用混合鍵合(hybrid bonding)與上層的單晶(monolithic)記憶體多層陣列封裝在一起。字線和位元元線的金屬間距都是70奈米。用以前DRAM製程定義半金屬間距來看,這個起始製程大概就是35奈米節點,與3D NAND剛開始時的30~40奈米製程相彷。這樣的3D DRAM堆疊32層後,所得的記憶體容量與1b的2D製程相彷。堆疊64層後容量就與10奈米以下第一世代製程0a相彷。這個堆疊是個可以重複的進展,DRAM的高科技產業屬性因此得以維持。目前有發布大概推出時程的是三星,大概在2026~2028年之間,與2D平面製程會並存一陣子,這與3D NAND剛出來時的策略也相同。假設3D DRAM的確是可行的技術,有2點值得評論。第一個是高頻寬記憶體是否會沿著目前的方法向前推進?目前的HBM是多個DRAM晶片以先進封裝堆疊以達到較大容量,其中先進封裝的費用佔總成本的相當部分。如果記憶體容量可以用單晶的3D製程來增加,成本有可能降低。但是這是比較長遠的事。另外一個議題有關於地緣政治。長鑫在其文章中說是業界第一次揭露3D DRAM技術,其實業界各自默默研發都很久了,但是長鑫對於3D DRAM的應用可能會特別有感。一方面目前長鑫的製程大概在1z節點,與領先公司有2、3代的差距。開始採用3D DRAM製程,可以快速拉進距離,畢竟那是一個新戰場。最重要的是3D製程中,技術的重心將從光刻搬移至蝕刻,這是長鑫在EUV資源受制約的狀況下,最可能的突破口。所以各公司3D DRAM製程的實際發展狀況和開發能力外界也許看不清楚,但是長鑫比較有可能投入較多資源是合理的預期。
智慧應用 影音