根据DIGITIMES观察,随着AI运算需求快速成长,云端服务供应商(CSP)正积极发展特用芯片(ASIC)AI服务器,以强化运算丛集效能并降低对单一供应商的依赖。
2024年NVIDIA GPU加速器解决方案占据AI服务器市场半壁江山,占2024年整体高端AI加速器出货量比重约达54.3%。NVIDIA方案虽为现阶段业者部署AI运算力的一时之选,然其售价昂贵且有过度依赖单一供应商风险。CSP大厂皆已展开ASIC服务器研发,领先厂商更进入应用阶段,并借此发挥运算丛集的最大效能。
Google ASIC服务器因发展较早,相关解决方案最为成熟。除其TPU加速器运算力表现不俗外,Google同时拥有TPU POD大型运算丛集解决方案,因此为四大CSP当中,对于NVIDIA依赖最低的业者。AWS于2024年首度推出具特定加速器互连技术的高密度机型解决方案,预估未来对于自家ASIC服务器采购比重将上升。Meta和微软(Microsoft)现阶段皆较依赖NVIDIA方案,然近年同样推出自家ASIC服务器,虽整体表现不如领先业者,但也宣誓其发展ASIC方案的决心。
DIGITIMES观察各业者ASIC解决方案的重点,除了以台积电先进制程量产ASIC外,各业者皆有推出机柜等级解决方案,以打造ASIC加速器运算丛集。其中,高密度机柜设计、液冷散热技术、加速器互连及网通解决方案皆为业者ASIC解决方案聚焦的重点。