數據中心散热越趋关键 3D VC将成气冷散热方案主流
DIGITIMES Research观察,在新時代數據中心建置过程中,散热方案逐渐崭露重要性,特别是在追求更高效能、优化电源使用效率(Power Usage Effectiveness;PUE),以及生成式人工智能(Generative AI)与高效运算(High Performance Computing;HPC)等应用需求不断提升下,传统气冷散热方案逐渐显露瓶颈,3D VC (3D Vapor Chamber)以比传统气冷散热高出近1.5倍的解热效能,展现优势。
高性能运算和人工智能崛起对數據中心带来更多挑战,其中,如何有效散热为最关键议题。高服務器密度、數據中心扩张、节能议题及高速运算需求成长等趋势,将促使大型數據中心业者纷纷将散热布局视为重要战略,不仅关心PUE目标的实现,更积极寻求提高散热效率方法,因应不断成长的运算需求。
在运算成长趋势下,數據中心的发展路径不再仅仅受到降低PUE数值目标的引领,还受到生成式AI和高效能运算的共同牵引,及耗用能源上的担忧,特别是在HPC和AI的快速崛起与生成式AI的推动下,CPU和GPU效能成长也面临热设计功率(Thermal Design Power;TDP)的不断提升,将为散热带来更为严峻的考验。
在普遍數據中心以气冷散热为主流的背景下,3D VC应用成功地突破理论上气冷散热的解热限制,为數據中心带来更高的散热效率,DIGITIMES Research预估,3D VC将成为2024~2025年服務器气冷散热的主流方案。
PUE目标及生成式AI共同驱动散热需求爆发
DIGITIMES Research观察,随生成式AI、HPC等快速发展,处理的數據也日益复杂,使企业对數據中心运算性能的需求持续成长,服務器的高效运作和稳定性变得比以往更加关键。
然而,數據中心的高效运转推升了对服務器的功耗要求,使服務器散热方案成为显学。散热不仅是维持服務器稳定运行的关键,更是保障服務器寿命的必要条件,如何开发出更有效的散热方案成为业者迫切任务,不断创新和整合各领域专业知识的散热解方,将成为发展HPC等高端技术的必然趋势。
■ HPC与AI成长为數據中心建置带来散热挑战
HPC和AI的快速发展已成为數據中心建置的一大挑战,數據中心需在硬件、軟件和散热方面进行更多的优化和升级,DIGITIMES Research将其归纳成以下四大重点。
一、对运算能力需求快速提升
HPC和生成式AI的惊人发展使得數據中心对运算能力的需求急剧增加。从复杂的科学模拟到大型语言模型(large language model;LLM)的训练,这些应用要求更快的处理速度和更大的记忆容量,因此,高端數據中心必须采用高效能CPU、加速器及大容量存儲器,这些硬件在高速运行中皆会产生大量热能,传统散热方案已不敷使用。
二、數據中心规模必须扩大
HPC和AI应用通常伴随著大量数据产生,而这些数据需要被高效地储存、管理和检索。數據中心在面对大规模数据的同时,需要构建更先进的储存系统和数据管理工具,以确保数据的可靠性、可用性和运算高效性。这同时也意味著數據中心对于坪效需求提高,相同空间所需容纳的服務器数量需提升,散热相关需求也同时增加。
三、高耗能带来能源使用效率与节能议题
高性能运算较传统运算耗用更多电力及水资源,对數據中心的能源效率带来严峻挑战,在确保运算性能的同时,數據中心需要不断探索新的能源利用与节约技术,如液冷散热和能源效率优化,这不仅关系到成本的控制,还涉及各业者对于环境能耗议题的发展目标。
四、高密度服務器配置
运算需求的提升及讲求更高效的服務器空间应用,使得目前业者设计倾向提高单一机柜服務器数量,导致单一机柜中散热空间受到压缩,在热能增加空间压缩的情况下,散热将会是一大挑战。

■ 大型數據中心业者重视散热布局 目标PUE趋近1
新時代數據中心建置以及对环境友好和节能效益的追求,使PUE成为评估數據中心运行效能的重要标准。与此同时,生成式AI的发展则带动數據中心内运算工作负载的大量增加。趋势共同作用下,數據中心业者对散热需求表现强烈。
DIGITIMES Research观察,在大型數據中心(Hyperscale)业者散热目标中,提高效能、节约能源一直是重点之一。能源耗用效能评估常以电力使用效能(Power Usage Effectiveness;PUE)指标为基准,目标使PUE趋近1,此时,散热系统的角色变得至关重要。
PUE是衡量數據中心能源效能的指标,其计算方式为总能源消耗除以运算设备的能源消耗。当PUE越趋近1时,表示數據中心更有效地将能源用于运算处理,而非浪费在冷却和其他基础设施上。因此,大型數據中心业者通常将PUE数值的降低视为提升营运效能的重要目标。
散热系统与數據中心的冷却效能紧密关联,进而影响PUE数值。当散热系统能够有效地将热量从IT设备中排除,數據中心便能减少冷却能耗,从而降低PUE。因此,大型數據中心业者日益重视散热系统的布局和效能优化。數據中心对散热布局的优化不仅能降低PUE,还有助于节省能源成本与能源耗用、延长IT设备的寿命,进而增进數據中心的可持续性。
然而,实现散热优化并非一蹴可几,需要投入大量的资源和技术。大型數據中心业者在追求PUE趋近1的同时,也需要平衡成本、技术更新和营运的复杂性。
DIGITIMES Research观察,2023年全球數據中心平均PUE为1.58,而中系业者也因中国政府提出规定业者须于2025年數據中心PUE至少要达到1.3的水准政策驱动下,中国數據中心近年平均PUE已较2007年相比下降幅度高达60%,透过线性预测也可推论未来PUE呈现下降趋势。

至于是否能够持续维持PUE下降动力,需考量數據中心设备及使用年限等因素,而较早期所建置的數據中心,业者是否会持续投入资源,更新硬件设备、散热系统和能源利用規劃,将会影响该數據中心呈现出的PUE数值,且间接影响到全球數據中心平均PUE结果。至于近几年全球平均PUE无明显起伏,主要可归因于运算需求在近两年大幅度成长,所产出的热量远高于以往。在热量庞大产生的前提下,近两年數據中心PUE数值无大幅度上升,可见业者在散热布局方面的重视与投入。
观察主要數據中心业者的PUE,可发现美系大型數據中心业者数值较小,平均为1.12;而大型數據中心业者Meta的Prineville數據中心因使用液冷技术于數據中心建置散热设计,成功实现将PUE值降至1.09~1.06。

这种极低的PUE值可表明液冷技术对于提高數據中心的能源效能有显著影响。中系业者华为近年投入资源于全液冷散热方案,并运用于數據中心,其散热效能大幅度优化使得PUE数值从早期2.2明显降至1.1,除因全球对數據中心能耗探讨等相关需求提升外,中国政府政策促使中系业者积极投入资源布局散热也达到一定效果。
■ 生成式AI拉动对处理器效能要求 TDP提升加大散热挑战
DIGITIMES Research观察于2008年时,CPU平均热设计功耗(TDP)落在105瓦(Watt)至2023年仍一路呈现上升情势,而2023年热议的图形处理器(GPU)平TDP也高达850瓦,且生成式AI的应用需求正急速增加,推动服務器主流处理器(包含CPU和GPU)效能持续提升,从而提高TDP。
然而,随著效能的增长, TDP的同步提升成为各相关业者不可忽视的挑战。TDP的定义是指一颗CPU或GPU达到最高负荷时,所释放的最大热量,其上升将导致散热需求增加,并影响硬件稳定性和可靠性。面对TDP提升,硬件制造商需要不断优化散热方案,包括改进冷却系统、利用先进的散热材料等,以确保硬件在高效能运算时,能够维持稳定的工作温度。
眼看生成式AI需求增加,GPU效能不断优化,CPU业者亦需不断推出高效能处理器。由于生成式AI需大量的矩阵运算和平行计算,而GPU在此运算领域中表现卓越,同时业者致于不断提升GPU的运算能力,包括增加处理核心、提高存儲器帶寬等,以满足生成式AI的高效能运算需求。
DIGITIMES Research观察,2016至2024年CPU和GPU性能提升进一步加快,TDP也同步持续增加。主因芯片工艺的进步更加迅速,以及CPU和GPU架构不断演进。以NVIDIA预计于今年推出GPU为例,B100系列TDP将达到1,000瓦,这将为芯片散热带来更迫切的需求。

以近年主流处理器的TDP分布情况来看,GPU的TDP成长幅度最为明显,也为芯片散热带来新一代的挑战。较为特别的是,以AI服務器来说,使用8颗GPU组成一个服務器系统架构,从需求用量也可看出AI服務器的散热需求较一般服務器更加迫切。
从2008年芯片TDP平均约为100瓦至2024年NVIDIA B100的TDP为1,000瓦来看,成长幅度达10倍,可见CPU和GPU的热能提升是必然趋势,同时TDP持续大幅度增加也是一个可预见的问题。
传统气冷散热出现瓶颈 3D VC带来更高解热效能
气冷散热为目前最主流的散热方式,其应用范围相当广泛,从整个數據中心的空调系统,至单一服務器主机的气冷方案。其中,服務器气冷散热主要是在服務器内部使用风扇和散热模塊等散热技术,将热量从硬件元件(如处理器、存儲器等)有效的导至机器外部;风扇可将冷却风引入服務器,同时将热空气推向外部。
传统气冷散热系统主要组成料件包括热界面材料(Thermal Interface Material;TIM)、均温板、风扇、热导管、散热鳍片等,这些散热料件从芯片到服務器系统机柜都会采用,而传统气冷主要的散热方式是依靠风扇主动降温,这种散热方式会对數據中心的空间设计较多限制,因需考量服務器气冷散热所排出热风的处理与循环。
而在面对现代高效能电子元件的散热需求时,气冷方案逐渐显露瓶颈,随著电子产品日益复杂,且功耗不断攀升,气冷散热方案的效能逐渐无法应对快速增长的热量。这种情况在运算资源高度密集的服務器及數據中心应用尤为明显,传统气冷散热将难以有效地将热量迅速散发,导致數據中心运算设备性能受到限制,甚至可能影响其稳定性和可靠性。

■ 3D VC为气冷散热方案带来更佳散热效率
在追求高速运算的需求情境下,3D VC技术的导入为气冷系统提供了更高散热效能的解决方案。3D VC透过模塊冷却的方式,能更有效地从电子元件中导出热量,并迅速将其传递到散热系统,进而提高整体散热效能。这种技术不仅可因应目前高功耗情境,同时也有助于解决设备中散热不均匀的问题,提升了整体系统的热管理能力。
3D VC技术的关键在于采用具垂直导热优势的热导管,结合水平导热优势的均温板,两者利用垂直堆叠组成立体模塊化设计。其并非单纯将两种元件进行焊接,而是需将其内部呈现中空并进行结合,同时使中空管路的毛细结构形成回路。
3D VC除了有热导管与均温板结合方式的设计,也可采用均温板与均温板结合呈现垂直与水平相交的立体堆叠,并于材料内部形成热传导回路,借此可增加配置冷却通道,并优化系统中散热平面的布局空间,使热量能更均匀地被冷却介质吸收并发散。这种设计不仅提高气冷散热效能,同时也有助于降低整体系统的工作温度,进而延长电子元件的寿命。
然而,在3D VC提升气冷散热极限的优势下,其垂直堆叠设计也为服務器的高度带来一定限制,因垂直堆叠模塊化设计,导致服務器需要有一定的高度才能灵活运用3D VC在气冷散热上的配置。

热导管与均温板在气冷散热中属于风扇以外的重要材料元件,以往在气冷散热设计上,两材料都是可分别部署至芯片上或系统中,与风扇结合成为散热系统进行散热运作,其中,热导管较均温板所占空间较多,设计上也会需要较大的空间。
DIGITIMES Research认为散热方案的设计与选择不仅要考量空间设计、材料成本与其用量,亦需掌握厂商供给状况和生产良率。另外,由于3D VC的应用限制与服務器高度相关,一般气冷的理论散热极限落在500瓦左右,而3D VC的应用则可提高气冷散热功率至800瓦,但服務器高度则需调高到3U高度。

數據来源:DIGITIMES Research,2024/1
以气冷方案来说,3D VC仍属较新技术,价格较热导管与均温板等成熟料件为高。但3D VC除解热能力明显高于传统气冷方案,与新兴的液冷方案相较,在相同解热能力下,3D VC虽空间耗用较多,但成本仅为液冷方案的10分之1。由此可知,3D VC除为气冷散热带来效能上的突破外,与液冷相比亦具有一定成本优势,且因转换散热方案设计痛点较少,故导入3D VC应用及需求成长显著。
目前芯片应用导入3D VC有英特尔(Intel) Eagle Stream跟超微半导体(AMD) Genoa,有这两项产品的导入加持,对该散热应用产生一定的推动力。
由此可见,3D VC除为气冷散热带来新突破,同时也能提供气冷散热设计沿用气冷机房架构的前提下的另一种选择。
DIGITIMES Research认为3D VC技术的应用为传统气冷系统带来成长,使其能够将气冷散热效能增加至800W,且比液冷散热更具有成本优势,体积空间更具弹性,预估将成为2024~2025年數據中心服務器散热由气冷切换至液冷散热设计前可采用的过渡方案。但同时因3D VC有高度及散热效能上限,如要增加空间运用效率及更高的散热效率,液冷散热仍是发展趋势。
结语
DIGITIMES Research认为,散热方案对于數據中心的发展变得至关重要。在新時代數據中心建置的过程中,我们见证了數據中心业者针对散热的战略性布局,尤其注重应对日益增长的高性能运算需求所带来的挑战。。不仅追求PUE目标的实现,更注重提高散热效率以应对不断增加的高性能运算需求。生成式AI的需求加速到来,CPU和GPU的效能提升导致热设计功率的提升,这使得传统的气冷散热方案面临瓶颈。
在这样的背景下,3D VC作为一种新的气冷散热方案,成功地提供了更高的解热效能,提高气冷散热能力约1.5倍,其不仅在实现高效气冷散热方面表现优越,可成为转向液冷散热前的过渡方案,为數據中心的气冷散热带来了新的可能性。
DIGITIMES Research观察市场,业者已有明显的出货能见度提升,显示3D VC在业界受到广泛认可并被积极采用。
DIGITIMES Research预估,未来液冷与浸没式冷却技术逐渐发展成熟,但气冷散热仍将持续存在并转变为辅助角色。以目前的发展来看确实需要液体冷却技术的导入,但气冷散热无法完全被取代,主要是因为數據中心目前环境仍需气冷散热存在,同时部分服務器可能无需使用高成本的液冷散热技术。因此,气冷散热在未来數據中心生态中的地位虽然受到挑战,但其特定应用和成本效益可确保其不被完全淘汰。
若想立刻加入付费"Research"会员,请洽询
客服专线:
+886-02-87125398。(周一至周五工作日9:00~18:00)
客服信箱:
member@digitimes.com (一个工作日内将回复您的来信)
- 追溯至2000年,洞察产业脉动
- 优质报告,助攻精准决策
- 八大主题,23产业频道涵盖
- 七大全球数据库,掌握市场趋势