Musk急叩黄仁勳加价插队 GB200急单360台1月底交货 智能应用 影音
Microchip
Event

Musk急叩黄仁勳加价插队 GB200急单360台1月底交货

  • 陈玉娟新竹

Elon Musk旗下xAI计划以10万颗GPU建构全球最大AI训练丛集,训练Grok 2 AI模型。法新社
Elon Musk旗下xAI计划以10万颗GPU建构全球最大AI训练丛集,训练Grok 2 AI模型。法新社

Elon Musk旗下的AI新创公司「xAI」对于AI需求殷切,近日传出直接找上黄仁勳加价插队,急单规模达10.8亿美元,全交付富士康代工。

NVIDIACEO黄仁勳公开多次强调,新一代Blackwell AI芯片的设计瑕疵在台积电协助下,生产已获得解决,来自微软(Microsoft)、Meta等客户的需求强烈。

他于最近一次法说会还表示,「每个人都希望拥有最多,也希望成为第一。」富士康更直言GB200于 11月量产、12月出货。

但近日市场又再传出下游零组件测试良率不佳,致使GB200量产再度延后至2025年3月,同时微软也动手砍单,部分延至下半年转采GB300。对此,供应链则表示,微软只是调整订单比重。

针对Blackwell因设计问题延后量产,黄仁勳多次公开承诺Blackwell于11月开始量产出货,且需求十分强劲,Blackwell GPU未来12个月的产能已被预订一空,现在才下单,恐要等到2025年底才能拿到货。

台积电董事长魏哲家也信心高喊:「AI is Real」,2024年下半持续观察到客户极其强劲的AI相关需求,进而提升先进制程产能利用率。

GB200超级芯片由2颗Blackwell架构B200 GPU和1颗ARM架构的Grace CPU所组成,3月GTC时,原先供应链即预期2024年第4季开始量产出货,不过8月却传出Blackwell有设计缺陷,甚至可能是台积电CoWoS-L良率低落,致使放量进度将延至第1季。

市场更盛传NVIDIA、台积电为此闹得不愉快。然在黄仁勳后来亲自回应Blackwell有设计瑕疵,且百分之百是NVIDIA的错,同时也强调在台积电的协助下,问题已经解决,Blackwell于11月开始量产,2025年首季开始放量。

尽管黄仁勳挂保证,近日市场却又传出GB200因下游零组件测试良率不佳,放量时程再度延后至2025年3月,且也使得大客户微软砍单。

对此,供应链则表示,首先微软并未砍单,只是调整B200与B300的采购比重,据了解,微软2025、2026年的GB200/GB300服务器机柜订单量合计约1.6万台;B300先前为B200 Ultra,GB200 Ultra也改为GB300,价格进一步提升,预计2025年第3季出货。

值得注意的是,TeslaCEOElon Musk对于AI布建也相当积极,先前也释出建构全球最大GPU丛集的愿景。

Musk指出,与甲骨文 (Oracle)分道扬镳后,旗下xAI计划以10万颗GPU建构全球最大AI训练丛集,未来目标将使用30万颗B200 GPU,而在此之前,甲骨文已提供xAI总计2.4万颗Hopper GPU,训练Grok 2 AI模型。

近日则是传出Musk说到做到,已向NVIDIA下单1,600台GB200 NVL72服务器机柜,更直接找上黄仁勳加价插队,要求1月底先交货360台。

GB200 NVL72机柜是由36颗Grace CPU及72颗B200 GPU组成,以每台整机成本最低300万美元估算,急单规模达10.8亿美元,包括之后订单全交付富士康代工。

据了解,此急单也是插队,排在微软、Meta之前交货,因此误传为NVIDIA的大客户出货排程有所变化。

富士康日前就指出,AI服务器方面需求强劲,富士康为NVIDIA的重要供应商,预计需求将逐季成长,富士康也扩大产能以满足「非常疯狂」的需求。

以此估算,其AI服务器于2025年占整体服务器营收约5成,目标在全球AI服务器市场占据4成版图。

责任编辑:陈奭璁