各种机器学习模型的成本将因为半导体的运算能力而出现更好的价格诱因,一旦使用价格降低,使用者必然大幅增加。使用人工智能(AI)将成为公私领域日常工作的一环,商品化的结果,就真会是「AI的iPhone时刻」来临。一旦Open AI成为常态,各种生成式的应用都需要NVIDIA数据中心与专用芯片,业界的相关效益可想而知。
与传统服务器不同,AI专用的服务器有80%是使用GPU,10%使用CPU,而一般数据中心的服务器,60~70%使用CPU的运算能力。以NVIDIA的DGX服务器建构组合为例,用8颗GPU、2颗CPU组成,GPT 3.5就需要1万颗A100芯片,而一般学习型的服务器只需要500~4,000颗的GPU。
大家都把焦点放在台积电,确实台积电是仅次于NVIDIA的赢家,而且这一波大潮才刚刚开始而已。NVIDIA最早推出的A100,在Hooper 100推出后,仍然具有很大的吸引力,那为何NVIDIA可以一枝独秀呢?
2013年以前,数据中心的投资规模一年大约550亿美元,但真正大幅成长是在2013年以后。2017~2022年间,数据中心的年均成长达到11.8%,而估计未来5年,NVIDIA规格的数据中心,就算只以维持目前的市占率估算,也可以有年均20%以上的成长率。乐观估计者,甚至认为年均可以达到40%以上。
NVIDIA吃肉,台厂喝汤也可以获利丰厚。现在台厂只要跟绘图芯片有关的,生意都做不完,市场传言纬创、富士康、广达都接到大单,而黄仁勳在CPMPUTEX期间,去拜访微星、技嘉,也与联发科携手开创智能座舱的商机,服务器之外,电动车、车联网的商机还在等着!
IDC指出,2023年AI与相关软件的市场是5,192亿美元。Gartner则说,2020年时,AI占公司IT支出比重是7%,到2023年会增加到10.5%,而2026年是13.8%。这是以全球软件市场当分母的推算,那麽软件商机背后的硬件世界呢?
几年前黄仁勳曾说:「AI会吃掉软件,软件会吃掉硬件」的豪语。我认为黄仁勳的话说对了一大半,硬件是无可替代的,特别是芯片,最大赢家仍然是硬件制造业,而与服务器、数据中心相关的事业体,也会有庞大的商机。