每日椽真:台湾主权AI应用明年启动 | 台美无人机合作接棒 | Cerebras公开说明书的13个亮点 智能应用 影音
Smiths Connectors
DForum0808

每日椽真:台湾主权AI应用明年启动 | 台美无人机合作接棒 | Cerebras公开说明书的13个亮点

  • 陈奭璁

早安。

ChatGPT横空出世,NVIDIA成为生成式AI应用爆发最大受惠者。近期较受关注的就是Cerebras,已提交IPO申请,将于NASDAQ上市,其目标筹资10亿美元,上市后估值约达80亿美元,其主力产品WSE-3处理器采用台积电5纳米制程,最大客户为阿联的AI公司Group 42,约占2023全年营收83%。

不过,Cerebras至今仍未获利,2022年亏损1.777亿美元、2023年亏损1.272亿美元,2024年上半则亏损6,660万美元,显见对新创公司而言,欲在研发金额庞大且代工价格高昂的AI芯片领域占有一席之地难度相当高。

本文文末的编辑手记也整理出Cerebras公开说明书的13个亮点说明

另外,在2024中国算力大会上,中国信息通讯研究院院长余晓晖解读最新发布的《中国综合算力指数报告2024》时,直指中国AI芯片生态比较「碎片化」,仍是一个非常大挑战,而「算力互联成网」是下一步要推动的重要工作
 

以下是今日5则科技供应链重点新闻摘要:

台美无人机合作接棒 俄克拉何马州有望成台厂测试地

继美国26家无人机团9月底来访后,台美合作又再推进一步,最新进展则是由上月底甫成立的「台湾卓越无人机海外商机联盟」正式迎来第一个合作盟友,日前联盟代表汉翔与俄克拉何马州国防产业协会签署MOU,目前双方已有共识,未来将参与彼此的国际商业计划,并共同推动无人机联合行销。

据了解,此次由俄克拉何马州能源暨环境厅长Ken McQueen率领该州国防产业协会逾10家无人机相关厂商访台,此行除了与台湾正式结盟外,预计也会拜访交通部民航局、中光电、汉翔等业者,并前往嘉义亚创中心拜访无人机厂商。

Speak推AI口语家教 以台湾为基地拓展华语市场

Speak总部位于旧金山,整体员工约75人,目前在台湾尚无实体据点,仅2~3位员工。亚洲市场部分,2019年在韩国推出服务,2023年在日本上线,在台湾则是4月刚上线。

Speak服务4月在台上线后,团队观察,台湾用户的成长动能高于先前投入的韩国和日本,因此有意加码投入台湾市场开发。

中国全球算力前二大 3年内加快AI数据中心建设

中国与美国在算力规模上位居全球前两大,而中国官方也首次公布目前全国算力规模与进展。中国工信部总工程师赵志国对外透露,目前中国运行中的算力中心机架总规模已超过830万标准机架,算力总规模达到246 EFLOPS(2,460万亿次浮点运算),位居世界前列。

2024中国算力大会日前在河南郑州举行,中国工业和信息化部总工程师赵志国在大会开幕做出上述表示,透露中国目前的算力数据。

提供全球算力却忽略自己 台湾主权AI应用明年启动

国科会主委吴诚文日前在立法院备询时,有多名立委关切Oxford insights公布2023年全球AI准备度台湾世界排名第19名、AI算力第106名之事。吴诚文回应表示,台湾主要供给算力给全世界,却忽略自己的应用。2025年开始国科会将投入新台币40余亿元建置自主的AI数据中心,积极做AI应用开发,协助产业投入,各界可拭目以待。

当前全球与生成式AI(GenAI)有关的GPU都来自台湾,HBM主要来自韩国。至于全球9成以上的AI服务器也是由台湾厂商组装出货。由于GPU极为昂贵,目前的大买家主要是美国的云端和软件巨擘如Google、微软(Microsoft)、Meta、亚马逊(Amazon)等。台湾有财力购买并自建AI数据中心的公司和机构仍属有限。现在政府决定出钱当买家,并且宣示主权AI的决心。

谁说ODM只能做黑手?这家自研AI芯片IP受青睐、客户自己挑

AI PC预计2025年大量出货,其中一项特色,是在NB的镜头,提供自动开关、调整光线与防偷窥,且需要兼顾省电的功能。IC设计业者将NPU与ISP(影像处理器)结合,让ISP具备AI功能,2024年底量产,而英业达正是背后的IP供应商。

英业达自研AI芯片IP有成,已有IC客户芯片开始量产。英业达AI芯片设计处资深处长徐国翰指出,客户芯片主要应用在NB或手机,其终端产品可望在2025年问世,此外,也有客户打算放入耳机内做手势识别。

编辑手记:

以下是Cerebras Systems提交给SEC的S-1/A文件中的13个重点:

1. Cerebras Systems是一家人工智能(AI)计算系统开发公司,专门设计用于深度学习和AI模型训练的创新处理器架构。该公司的旗舰产品是Cerebras Wafer-Scale Engine(WSE),是一种专门为深度学习和AI运算设计的大规模芯片。

2. Cerebras的Wafer-Scale Engine(WSE)被描述为全球最大的半导体芯片,拥有1.2万亿个晶体管,比传统GPU芯片大100倍,目标市场为需要大量计算资源的AI和深度学习应用领域。

3. Cerebras与台积电(TSMC)建立了长期合作关系,TSMC负责生产Cerebras的Wafer-Scale Engine芯片。该合作协议中强调,台积电不对生产能力作出承诺,并且所有交货安排需根据台积电的生产排程进行调整。

4. Cerebras认为其主要竞争对手为NVIDIA及其他专门为AI设计硬件解决方案的公司,如Graphcore和SambaNova。文件中指出,虽然这些公司在市场上拥有较大份额,但Cerebras凭藉其独特技术有望在未来夺取更多市场占有率。

5. Cerebras提到其主要客户包括多家大型科技公司及研究机构,如Google、Microsoft等,这些公司利用Cerebras的系统进行大规模AI模型训练。

6. Cerebras的Wafer-Scale Engine芯片拥有 400,000个核心,用于支持大量并行计算和高效能深度学习模型训练;WSE的浮点运算速度达到 9个PetaFLOPS(每秒千万亿次浮点运算),能够大幅度提升AI训练的速度。

7.  台积电生产Cerebras晶圆的交货时间取决于当前产能情况,一般交货周期约为 4到6周。若出现产能紧张情况,交货时间可能延长​。

8.Cerebras芯片的生产良率依赖于台积电的制程技术。良率下降会显着影响芯片成本,且公司在文件中指出,良率变化可能导致 30%-50% 的成本波动。

9.Cerebras的芯片拥有 18GB的内部SRAM存储,这些存储空间专门用于加速深度学习模型的计算过程,比传统GPU的存储容量多数倍。

10. WSE芯片的功率需求为 15kW,相较于一般AI运算设备的功率需求(2-4kW)显着增加,需要特别设计的散热系统来维持芯片运行。

11. Cerebras的WSE芯片能将深度学习模型的训练时间从数周缩短到 数小时,实现10倍以上的速度提升。

12. 截至报告期,Cerebras拥有约 300名员工,其中超过60%为技术人员,这些人员主要集中在研发和产品开发部门​;公司每年将超过 40%的营收 用于研发。

13. Cerebras在过去一年中的营收增长率达到 120%,主要来自于AI市场需求的快速增长和新客户的订单增加。

 
责任编辑:陈奭璁