先进AI芯片发展趋势 智能应用 影音
DTRAPP40
ADI

先进AI芯片发展趋势

  • 陈婉洁DIGITIMES企划

人工智能(AI)技术的快速发展,为各行各业带来了革命性的变革。AI芯片作为实现AI应用的核心硬件,在市场需求的驱动下,也迎来了前所未有的发展机遇,而随着AI应用场景的不断拓展,对AI芯片的性能和能效提出了越来越高的要求,也为芯片设计和制造带来了新的机遇与挑战。根据市场研究机构预测,到2027年,全球AI芯片市场规模将达到1,200亿美元,显示出AI芯片在未来几年将维持高速成长的趋势。

AI芯片的关键技术与发展

1.    AI模型的演进推动芯片效能提升

近年来,AI技术的快速发展很大程度上得益于大型AI模型的突破,尤其是自然语言处理领域的大型语言模型(Large Language Model;LLM),如OpenAI的GPT系列模型。这些大型语言模型动辄拥有数百亿乃至上万亿的参数量,其训练和推理都需要庞大的运算资源。以即将推出的GPT-4为例,其参数量预计将达到1.76万亿,训练所需的算力高达10^10^的Petaflops级别,比现有的GPT-3高出数个数量级。为了应对这些大型AI模型的运算挑战,GPU、ASIC等AI加速芯片必须在运算效能、存储器带宽、功耗效率等方面实现突破性的提升。

2.    逻辑芯片的发展

在AI芯片领域,GPU和ASIC是目前最主要的两类逻辑芯片。GPU凭藉其高度平行化的架构和丰富的软件生态,已经成为AI训练和推论的标准硬件平台。NVIDIA凭藉在GPU领域的领先优势,在AI芯片市场占据了80%以上的份额。但随着AI应用的专用化趋势日益明显,为特定AI任务定制的ASIC芯片开始受到青睐。相比于通用GPU,ASIC能够提供更高的运算效能和能效,但缺点是设计成本高、灵活性差。未来,GPU和ASIC将在AI芯片市场形成分工与互补。值得关注的是,先进制程技术的演进,如2纳米、3纳米制程的导入,将为逻辑芯片的性能和能效带来新的突破。

3.    存储器芯片的发展

存储器存取带宽和容量是制约AI系统效能提升的关键瓶颈之一。当前主流的DRAM技术已经难以满足未来大型AI模型的存储器需求。为了突破这一瓶颈,高带宽存储器(HBM)、GDDR等新型存储器技术已经广泛在AI芯片中得到应用。而与传统DDR存储器相比,HBM采用2.5D芯片堆叠技术,可提供高达900GB/s以上的带宽,且功耗更低,在其绝对性能优势下,目前几乎所有的HBM产能都已经被抢光。未来,随着制程的进一步微缩,HBM的容量和速度有望进一步提升。此外,基于新型非挥发性存储器(如MRAM、ReRAM)的AI芯片也是一个值得关注的方向,其有望实现更高的存储器密度和更低的静态功耗。

4.    先进封装技术促进异质整合

除了芯片本身的创新,先进封装技术的发展也为AI芯片的设计带来了新的机遇。2.5D/3D封装技术能够将多个异构芯片(如逻辑芯片、存储器芯片、光学芯片)整合在同一个封装中,大幅提升芯片间的互连带宽,突破了单一芯片的设计限制。例如,AMD最新推出的MI300系列AI加速卡,采用了创新的2.5D芯片堆叠设计,将GPU芯片与高带宽HBM存储器整合在一起,显着提升了整体效能。未来,多芯片模块化设计有望成为AI芯片的主流趋势,以应对日益复杂的AI应用场景。

半导体大厂与科技巨头的AI芯片竞赛

1.    NVIDIA、AMD、Intel的高端AI芯片

在AI芯片市场,NVIDIA、AMD、Intel三大厂商正展开激烈的竞争。NVIDIA凭藉在GPU领域的领先优势,以及丰富的CUDA软件生态,在AI训练和推论市场占据了绝对的主导地位。NVIDIA目前主打的H100 GPU,拥有800亿个晶体管,可提供高达1000 TFLOPS的FP16运算效能,而不久前才公布的B100/B200及基于该架构的服务器,不仅在运算性能与功耗均衡性都有极大突破,其推论速度号称较H100快了30倍,同时降低25倍的TCO与能耗。

AMD作为NVIDIA的最大竞争对手,近年来在AI芯片领域发力,推出了CDNA架构的Instinct系列加速卡。其最新的MI300加速卡,整合了GPU和HBM存储器,单精度浮点运算效能高达383 TFLOPS,作为NVIDIA的替代方案仍有一定市场。Intel在AI芯片领域的布局相对较晚,但其在GPU、FPGA、Habana AI加速器等多个赛道同时发力,其最新的Gaudi 3芯片在理论性能上已经追上NVIDIA,但在应用生态上仍有所不足。

2.    云端平台大厂推出自研AI芯片

除了传统的半导体大厂,云端平台大厂也纷纷进军AI芯片领域。为了降低对NVIDIA等厂商的依赖,提升自身在AI市场的竞争力,亚马逊、Google、微软等云端平台大厂纷纷推出了自研的AI芯片。

•    亚马逊发布了基于ARM架构的Graviton系列通用CPU,以及针对AI训练的Trainium系列加速器。最新发布的Trainium2加速器,采用5纳米制程,运算效能是前代产品的3倍,能效则提高了2倍。

•    Google则是围绕其TPU(Tensor Processing Unit)系列芯片展开AI布局。TPU是专为Google TensorFlow软件架构优化的ASIC芯片,可提供高达每秒420万亿次的运算效能。最新发布的第五代TPU,采用9纳米制程,单芯片可提供高达4 PFLOPS的运算效能。

3.    AI新创公司的专用芯片研发

除了既有的产业大厂,一批AI芯片新创公司也正在崛起,它们专注于针对特定AI应用开发专用芯片。例如,Cerebras Systems开发了号称「全球最大的AI芯片」的晶圆级处理器(Wafer Scale Engine),其最新一代产品WSE-2拥有2.6万亿个晶体管,专为大规模AI模型训练而优化。Groq、Graphcore、Mythic等新创公司也都推出了独特的AI加速器架构,试图在AI芯片市场分一杯羹。

AI芯片生态系统与供应链变革

众所周知,AI芯片的发展离不开完整的产业生态系统与供应链支持。

在芯片制造环节,台积电凭藉先进制程技术的领先优势,成为AI芯片产业链中无可替代的关键角色。而IP供应商与设计服务公司的崛起,则为AI芯片设计提供了标准化的IP模块与专业化的设计服务,有助于加速AI芯片的开发进程。此外,开源硬件与RISC-V架构的兴起,也为AI芯片带来了新的发展机遇,有望进一步降低设计门槛,促进生态系统的繁荣。

展望未来,随着AI技术的持续发展和应用场景的不断拓展,AI芯片设计与制造必将迎来更大的创新与变革,成为推动整个半导体产业发展的重要引擎。


关键字
商情专辑-COMPUTEX 2024