微软与OpenAI深化合作 携手自研AI芯片 智能应用 影音
Microchip
ST Microsite

微软与OpenAI深化合作 携手自研AI芯片

  • 蔡静珊综合报导

微软Athena AI芯片的开发历时多年,现与OpenAI合作,最快可能在2024年开始大规模供内部使用。符世旻摄
微软Athena AI芯片的开发历时多年,现与OpenAI合作,最快可能在2024年开始大规模供内部使用。符世旻摄

据传,微软(Microsoft)与OpenAI合作开发代号为Athena(雅典娜,希腊智能女神)的一款人工智能(AI)芯片,采用台积电5纳米制程,目的是应用于大型语言模型(LLM)的训练以及推论等内部需求。据称,在OpenAI的ChatGPT聊天机器人取得成功以后,微软就加速了Athena的推出时程。

外界评论,随着需求上升且变得更加多元化,对于超大规模云端服务业者(Hyperscaler)而言,开发出针对自身架构进行优化的特殊AI芯片,以及优化过而非只针对NVIDIA CUDA的演算法,是很重要的一件事,毕竟这关乎云端业务的营运成本,以及能不能为客户提供多种多样的选项,而不是让客户只能选择价格高昂的NVIDIA方案。

据The Information引述消息人士说法指出,微软Athena AI芯片的开发早在2019年就已经开始,目标是表现得比目前从外部采购而来的产品还要更好,以此节省投入在AI领域高昂的时间与金钱成本。这款芯片目前正由微软与OpenAI组成的团队进行测试当中,可能最快在2024年开始大规模提供双方内部使用。

目前AI芯片领域由市场占有率高达88%的NVIDIA主导。然而,超大规模云端服务业者针对LLM训练需求,企业投入自主开发者所在多有,除了微软Athena以外,还包括亚马逊(Amazon)的Trainium与Inferentia处理器架构,或是Google的张量处理器(TPU)等。

VentureBeat引述Gartner分析指出,之所以出现AI芯片自研风潮,原因在于高端生成式AI(Generative)模型规模的成长速度,持续高过训练所需要的运算能力;随着下一代模型参数将达到上万亿等级,科技创新大厂希望拥有多样化的运算加速器以加速训练,因为比起采用传统商品化的技术途径,定制化的AI加速器策略,更能协助达到前所未有的规模经济效益。

对于加速的需求,同样涉及应用于推论领域的AI芯片。J Gold Associates分析师指出,NVIDIA效能强大的通用型AI芯片,以及平行运算平台CUDA,是专门针对机器学习训练需求而设计。至于推论所需要的效能,一般会比训练来得低,而且因为推论最终会是一块很大的市场,所以业者针对此市场需求推出产品,是很重要的布局。

J Gold Associates同时指出,作为10年前深度学习革命的重要推手,NVIDIA成功建立起势力强大的平台策略,以及以软件为中心的途径,并在对于GPU有庞大需求的生成式AI时代中大放异彩。因此,Athena的存在,并不会对于NVIDIA在AI与机器学习领域的地位造成多大的威胁。不过,这些超大规模云端服务业者想必未来还是会继续自主开发芯片,这不仅是为了与NVIDIA竞争,也是与英特尔(Intel)通用云端运算的竞逐。


责任编辑:毛履万亿