AI时代的半导体技术发展 智能应用 影音
DForum0522
ADI

AI时代的半导体技术发展

  • 陈婉洁DIGITIMES企划

人工智能的发展为半导体产业带来诸多冲击与变革。其运算需求的爆炸式成长直接催生出高效能的AI芯片;对特定模型的定制需求启发了创新架构的产生;极端的速度要求推动了半导体封装技术的飞跃。

可以说,AI为半导体产业注入了全新的活水,也给业者提供了重大的技术契机。本文将解析AI如何从多个层面推动半导体技术发展更上一层楼的飞跃。

激增运算需求催生新型AI芯片

随着语音识别、自然语言处理等AI模型的数据量和结构愈发复杂,其运算需求呈现爆炸式成长。尤其是语音识别需要分析语音信号并提取语音特徵,进行语音识别需要大量的矩阵运算。自然语言处理需要分析人类语言的语法和语义特徵,进行机器翻译、情感分析等任务也需要海量运算。

仅仅一个大规模语言模型的运算需求,就已经可以匹配当前全球数万台大型数据中心级别的服务器总和。这给半导体产业带来了巨大的压力。为了满足这种天文数字的运算需求,半导体公司纷纷推出专门为AI模型和算法进行硬件最佳化设计的新型芯片。

Google的TPU为机器学习最佳化,号称性能可挑战目前AI运算的龙头NVIDIA。Google

Google的TPU为机器学习最佳化,号称性能可挑战目前AI运算的龙头NVIDIA。Google

以Google的Tensor Processing Unit(TPU)芯片为例,它直接针对机器学习模型进行定制化设计,采用了表徵文法神经网络架构,并使用模拟存储器进行并列化运算,效率相比当时最先进的GPU提升了30-80倍。NVIDIA的Hyperscale GPU则采用多芯片互连技术,可以组成巨大GPU集群进行运算。

可以说,正是AI模型运算需求的爆炸式成长,直接促成并加速了这些专门为AI工作负载设计的新型高效能芯片的诞生。它为半导体产业带来了强劲的发展势头,也开辟了蓬勃的新市场。

定制设计思维催生创新架构

相对于过去追求通用计算的半导体设计思路,AI模型和算法的运算具有独特的模式,为了发挥最佳运算效率,需要针对特定模型和算法进行整体最佳化的定制化设计。

由于不同的AI模型和算法有不同的运算模式,例如CNN网络强调并行计算,RNN网络注重记忆性计算等。为适应这些差异,半导体公司纷纷构建从软硬件、IP核心到芯片封装的全方位定制化设计平台,通过软硬件的协同设计,持续最佳化整个芯片以适配AI模型的演化。

以NVIDIA为例,其首先基于CUDA开发了针对AI演算法的软件架构,再对其GPU架构进行重新设计,添加了Tensor Core等专为AI而设的硬件单元。同时它还自主设计了NVLink连接技术,连接多个GPU进行并列加速。从软件到硬件IP,再到封装互连,全面实现了AI定制化设计。

此外,海量的AI运算数据也为架构设计的最佳化提供了可能。总体上,AI的定制化设计思维推动并催生了创新架构的产生,开启了半导体设计的新篇章。随着AI模型的快速演进,定制化设计将持续促进创新架构的产生,驱动半导体技术的新突破。

多芯片封装突破单芯片速度瓶颈

随着半导体制程节点的不断缩小,单个芯片内部信号传输速度已经难以满足AI模型运算的需求。主要原因在于,过度缩小制程会使芯片互连的寄生电容和电阻效应加剧,进而降低信号传输速率。举例来说,当制程节点从28nm缩小到7nm时,芯片内信号延迟会增加2.5倍。

这种单芯片速度瓶颈已然成为限制AI模型训练和推论速度的主要障碍。以训练大规模语言模型为例,它需要反覆读取巨大的模型参数,如果受限于单芯片内存储器的存取速度,将直接减缓模型的训练效率。此外,在AI模型推论阶段,如果无法快速将输入数据存入芯片内部存储器,也会拖慢整个推论流程。

为了提高信号传输速率,业界纷纷发展多芯片封装技术以实现芯片间的高速互联。以英特尔的EMIB技术为例,它利用矽桥进行芯片间的高密度微博尺寸互联,可以将HBM等堆叠存储器与逻辑芯片进行垂直堆叠,实现存储器带宽的大幅提升。这样就可以突破单芯片内部信号速度的瓶颈,满足AI模型训练和推论对数据传输速度的严苛要求。

台积电的CoWoS封装技术成为AI芯片设计业者的最爱,目前产能面临极度紧俏,正在积极阔产,日月光等封装业者也在积极赶上。台积电

台积电的CoWoS封装技术成为AI芯片设计业者的最爱,目前产能面临极度紧俏,正在积极阔产,日月光等封装业者也在积极赶上。台积电

台积电的CoWoS技术也是相似的原理,它可以在晶圆级基板上封装多颗芯片,并使用超高密度的柱状互连件连接芯片间信号,实现更快速的并列计算。这种多芯片封装架构能够突破单芯片速度限制,满足AI模型对运算能力的渴求。

总体而言,多芯片封装技术透过突破单芯片内部信号传输瓶颈,使之成为实现更强AI运算的关键途径之一。它也将推动半导体封装技术的革新与进步。

AI也推动了运算架构的演化

为满足AI模型运算需求日益成长的趋势,半导体公司纷纷投入前瞻技术的研发,以期实现计算架构的重大突破。

以光子计算为例,它利用光子而非电子来编码、处理和传输信息。理论上,光子的传播速度可以达到电子的100倍,且光子处理信息时几乎零耗能。如果能够商业化,光子计算将可能在计算速度和能耗利用率上实现数量级的飞跃。目前研究主要集中在光子计算的基础单元与逻辑闸构建,以及与电子计算系统的界面技术等。预计在未来5-10年内,可实现小规模光子计算原型的验证。一旦成熟,它将可能提供远超传统电子计算的运算速度与能效。

此外,模仿生物神经网络的神经模拟计算架构也展现出强大的平行处理能力。例如Graphcore的IPU芯片采用数千个处理单元组成存储器为中心的网格结构,在AI模型训练速度上远超传统GPU,代表了新型计算架构的可能性。类似构想也被应用到以神经网络为基础的神经网络处理器上。这种生物启发式计算将可大幅提高AI系统的智能化程度。

还有以存储器为中心的处理架构等其他前瞻技术也在尝试突破传统数码计算的局限。总之,这些技术代表了半导体计算能力、效率、节能等方面的可能突破。它们的成熟将为半导体产业的新发展阶段提供强大动能,也将满足AI模型运算需求在可预见未来的持续高速成长。

人工智能的发展激发了半导体产业的新思维,也加速推动了多个层面的技术变革和创新突破。在激烈的市场竞争中,要持续站稳阵脚,半导体公司必须紧跟AI的发展,以技术创新来实现超越。


关键字
商情专辑-2023 SEMICON Taiwan