ChatGPT与NVIDIA齐推动!AI生态火热成供应链运转动力 智能应用 影音
新思
Event

ChatGPT与NVIDIA齐推动!AI生态火热成供应链运转动力

  • 陈婉洁DIGITIMES企划

AI产业正处于蓬勃发展阶段,尤其是以大语言模型为代表的生成式AI技术引起了广泛关注。ChatGPT作为大语言模型的代表,其应用不仅可以应用于自然语言生成、语音识别等方面,还可以应用于供应链管理、产品设计等方面。因此,各大企业纷纷投入大量资源,研发自己的大语言模型,以推进AI技术的发展。这些应用背后,需要大量的芯片运算能量来支持,因此,相关的硬件技术也在逐步成熟。

OpenAI的ChatGPT引发了自然语言生成的热潮,包含Google、Meta等各家封闭或开放的大型语言模型也纷纷出现,这些模型背后都依靠大量运算资源支撑。ChatGPT只是冰山一角,更多AI应用正在发展,它们同样需要强大的运算能力才有办法发展。

OpenAI的ChatGPT与NVIDIA可以说是2023年半导体供应链回温的关键。NVIDIA

OpenAI的ChatGPT与NVIDIA可以说是2023年半导体供应链回温的关键。NVIDIA

也因此,在需求的推动之下,AI数据中心所需要的大量基于FPGA的高速交换设备、数据中心内部需要的存储器、处理器以及储存空间所带来的需求,为从原料、零组件、组装代工厂、品牌厂、软件服务厂等各式企业,到最终使用者享受到的AI服务,这些生态所组成的上、中、下游网络、相关的芯片供应链在景气的谷底带来回春的希望。

AI运算主角们

AI发展需要什麽样的芯片?从模型训练到推论,不同阶段需要不同产品架构的帮助。现在最热门的主要是数据中心这一段,但是在个人AIGC工具蓬勃发展之下,笔者也相信,终端的AI解决方案也同样会发展起来。

先回到数据中心的部分,目前NVIDIA旗下主力A100、H100和针对国内市场的特制降规版A800、H800可以说是目前AI演算力的核心动力,以演算力占比来看,NVIDIA占了超过8成以上,在这场AI大赛中,NVIDIA无疑是最大的赢家,毕竟其研发超过十几年的CUDA软件环境仍是目前支持最完整的AI加速平台,Google、Amazon和微软都采购了大量NVIDIA芯片来训练模型,并且提供推论服务,借此加速AI发展,即便 Google有自行发展的Tensor芯片,Amazon也同样提供自行研发的Trainium芯片,成为可供客户选择云端使用的运算能力来源之一,但这些只是作为补充方案,避免NVIDIA供货不足的备援,而非主力。

AMD紧追其后,提出高端MI300与NVIDIA竞争,既有的MI200系列亦有一定比例的占有率,但整体而言,其AI加速设备占比有限,不过数据中心处理器在新的EPYC方案推出之后颇有斩获。英特尔也有提供训练与推论全套解决方案,但除处理器外并没有太多获得采用。

AMD和英特尔的AI加速方案多半都只是用作填补NVIDIA的高价和供应短缺带来的市场空白,并非AI服务业者的首选,且因为软件与生态不足,所以市占仍有限。AMD最新的MI300加速芯片,号称可以提供较NVIDIA的H100更高的训练效能,不过因为才刚推出目前市场接受度还不高,但是AMD的数据中心处理器在性能与成本上的综合优势吸引了一线云端服务大厂的采用。英特尔则是提供了一整套包括训练加速器,以及Xeon处理器方案,同时涵盖云端与终端,但因为云端处理器的推出时程一再推迟,有不少客户转而使用AMD的处理器方案。

哪些供应链业者会受益?

构建AI数据中心不仅需要运算芯片,还需其他半导体元件,也就是供应链上的各个环节都会牵连到。

举例来说,AI芯片的出货动能主要来自NVIDIA,而NVIDIA的代工夥伴为台积电,其最新的H100与H800 AI加速器上面使用的存储器为SK Hynix所提供的HBM3存储器,三星与美光2023年稍晚也会开始供应HBM3存储器产品。

然而云端服务业者所建立的AI服务器当然不会只有一大堆H100裸卡而已,而是必须组装成服务器,然后透过基于FPGA的高速网络互连,为了满足AI训练与推论工作的庞大运算需求,服务器还必须要配备大量的处理器与存储器及储存空间。这也代表,因为PC市场衰退面临业绩急冻的处理器、存储器与储存设备业者,在数据中心业绩方面可望迎来成长。

调研机构集邦科技就预估,在聊天机器人相关应用的成长加持下,2023年全球AI服务器出货量年成长达到8%,高于总体服务器出货量的1.31%。而到2026年的3年复合成长率,也将达到10.8%。

同时,我们也可以看到存储器价格已经开始止跌回稳,服务器业者,如纬创、纬颖第1季也都缴出好成绩,台积电在景气低迷的第1季业绩仍有微幅成长,主要也是来自AI应用数据中心需求成长的贡献。

AIGC也有机会带动商务PC需求成长

AI不仅在云端发展,终端也有庞大需求,特别是图像AI工具,如Stable Diffusion,尽管许多人将其用于产生美女图片,但在各种商业应用,如室内设计、广告图片生成和服装虚拟代言人物等方面也将产生巨大商机,这些需求虽用不上H100之类的专业AI加速器,但需要大容量VRAM的娱乐显示卡进行运算加速,毕竟使用配备大容量VRAM的显示卡来算图只需要几秒钟,如果纯粹使用CPU运算,可能就需要花费数十倍以上的时间。因此,未来这些需求可能为娱乐显示卡开拓新的出路,同时也提高相关存储器企业的出货量。

而随着Google IO在各类AI技术的发表,我们也可以看到未来基于小模型的终端AI将是兵家必争之地,这些都将产生新类型的应用与设备需求,带动供应链的成长。

综上,AI生态蓬勃发展,不仅驱动专业AI芯片的需求,也带动相关半导体供应链加速运转。AI才刚起步,供应链还有大有可为。

议题精选-COMPUTEX 2023