智能应用 影音
MongoDB
ST Microsite

AI商机有多大?谁是获利者?

一旦Open AI建立完整的生态系,就可以主导整个商机,影响力越大的品牌与解决方案,将会成为市场上的领导者。微软(Microsoft)刻意造成「生成式AI等于Open AI」印象,加上Office 365的优势条件,微软可能是很大的受益者。

由于需要强大的数据运算能力,在数据中心芯片市占遥遥领先的NVIDIA成为最大的获利者,台积电也因为是代工夥伴而受惠。现在NVIDIA跟英特尔(Intel)叫板,甚至畅言「CPU时代已经结束」!

导入AI不外乎是为了使用者忠诚度、提高效率,提升竞争力等。估计Open AI的市场规模,将从2023年的2亿美元,增加到2024年的10亿美元。

游戏开发商可以利用各种AI工具加速产品的开发,并以各种内容的整合开发出新的商机与市场区隔。市场刚刚起飞,但速度也可能像ChatGPT一样迅雷不及掩耳!

相较于现在的检索模式,对话式检索机制成本必然会增加,光是学习自然语言的运算机制,各种服务器、数据中心的投资就以1,000亿美元的规模来计算。

Open AI需要导入1万颗以上的NVIDIA A100绘图芯片,相关资本支出与背后的维护都非常惊人。另据Semi Analysis估计,Google自主开发的Google TPU v4,资本支出高达200亿美元,这大约是Alphabet 2022全年资本支出的64%。

可以预期「超巨量型数据中心」(Hyperscale Data Center)将是军火竞赛的一环,起步较早的微软与AWS都是领先者。但无论是内部或外部的连结,都是数据中心管理者很大的挑战。

我们同时可以见到传输速度不断的提升,到2025年时,使用800G数据传输速度的Switch将高达2,500万个,这与2022年还是主流的100G相比,已经不可以道里计!

整体而言,数据中心的演化,从最早的储存数据进化到演算,现在则是分散处理,藉以取得最佳化的成果。为了有效管理这样的需求,除了过去倚重的CPU之外,现在数据中心更关注DPU(Data Processing Unit)的进展。

这些可以有效管理储存数据的微处理器,将是下一波需求的主流。相较于过去专注在特定功能的微处理器,DPU更重视整合性的功能。简单来说,CPU用于一般的运算功能,GPU是加速运算功能,而DPU是专注数据处理功能。

「Scaling AI Compute」是从数据中心的运算,延伸到网通过程,以及边缘端的多元AI运算机制。基于提高运算效能、降低功耗等多方面的考虑,大家把希望寄托在晶圆制造与EDA工具的进化。

如何以ASIC半导体芯片为基础,生产出可以符合差异化需求的硬件设备,也都是制造厂非常大的考验。
 

为拥有近40年资历的产业分析师,一手创办科技专业媒体DIGITIMES,着有《决胜矽纪元》、《矽岛的危与机》、《东方之盾》、《断链之后》、《科技岛链》、《巧借东风》等多本着作。曾旅居韩国与美国,受邀至多家国际企业总部及大专院校讲授产业趋势,遍访国内、欧美、亚太主要城市。