NVIDIA Grace Hopper超级芯片在MLPerf推论基准测试中取得卓越成果 智能应用 影音
TERADYNE
Event

NVIDIA Grace Hopper超级芯片在MLPerf推论基准测试中取得卓越成果

  • 黎思慧台北

GH200、H100和L4 GPU以及Jetson Orin系统模块在从云端到网络边缘的生产环境中运行人工智能方面表现出领先的效能。NVIDIA
GH200、H100和L4 GPU以及Jetson Orin系统模块在从云端到网络边缘的生产环境中运行人工智能方面表现出领先的效能。NVIDIA

NVIDIA GH200 Grace Hopper超级芯片 首次亮相于MLPerf产业基准测试中,在所有人工智能推论加速器测试中均表现优异,进一步扩展了NVIDIA H100 Tensor Core GPU的领先效能。这些结果还展示了NVIDIA 人工智能平台在从云端到网络边缘的卓越性能和多功能性。NVIDIA另外宣布推出推论软件,能让使用者在效能、能源效率和总持有成本方面上得到显着的提升。

GH200超级芯片在MLPerf基准测试中表现优异

GH200连结Hopper GPU 和Grace CPU成为一个超级芯片。这个组合能提供更多存储器、带宽,以及能在CPU和GPU之间自动调节电力,以最佳化表现。此外,配备 8 个H100 GPU的HGX H100系统在本轮每个MLPerf推论测试中提供了最高的吞吐量。

Grace Hopper超级芯片和H100 GPU在所有MLPerf的数据中心测试中处于领先地位,包括电脑视觉推论、语音识别和医学成像,以及要求更高的推荐系统应用案例和生成式人工智能中使用的大型语言模型(LLMs)。

总体来说,这次测试结果延续了NVIDIA自2018年MLPerf基准推出以来,在每轮人工智能训练和推论方面效能领先的记录。最新的MLPerf测试中包括对推荐系统的更新测试,以及首次针对GPT-J进行的推论基准测试。GPT-J是一个具有60亿参数的大型语言模型,而参数是用来衡量人工智能模型大小的粗略指标。

TensorRT-LLM大幅提升推论效能

为了减少各种规模的复杂工作负载,NVIDIA开发了TensorRT-LLM,这是一种可最佳化推论的生成式人工智能软件。这个开源程序码在八月向MLPerf提交测试结果时尚未完成,能使客户能够在无额外成本的情况下,将其已购买的H100 GPU的推论效能提高一倍以上。NVIDIA内部测试显示,在H100 GPU上使用TensorRT-LLM,与以前的GPU运行GPT-J 6B相比,效能提升高达8倍。

这个软件源于NVIDIA与业界领先公司的合作,包括Meta、AnyScale、Cohere、Deci、Grammarly、Mistral AI、MosaicML(现为Databricks的一部分)、OctoML、Tabnine和Together AI,以加速和最佳化大型语言模型推论的过程。

MosaicML在TensorRT-LLM的基础上增加所需的功能,并将其纳入现有的服务堆叠。Databricks 工程部门副总裁 Naveen Rao 指出:「这绝对是一件轻而易举的事。」

「TensorRT-LLM 简单易用、功能多样且相当有效率。它为使用 NVIDIA GPU 的大型语言模型服务提供了最先进的效能,让我们能够把省下来的成本回馈给客户。」Rao 说。

TensorRT-LLM是NVIDIA全端AI平台持续不断创新的最新范例。这些不断升级的软件为用户提供了可随时间延长的性能,而无需额外成本,并且能适应当今多样化的人工智能工作负载。

L4 提升主流服务器的推论效能

在最新的MLPerf基准测试中,NVIDIA L4 GPU在各种工作负载上表现卓越,提供全面性的出色性能。例如,L4 GPU运行在精巧、功耗为72W的转接卡上,与功耗高出近5倍的CPU相比较,L4 GPU提供高出6倍效能。除此之外,L4 GPU内建专属的媒体引擎,在NVIDIA的测试中与CUDA软件合用能加速电脑视觉应用达120倍。目前可以从Google Cloud和许多系统制造商端使用L4 GPU。它们为从消费者网络服务到药物研发等多个产业的客户提供服务。

在边缘环境中效能提升

此外,NVIDIA应用了新的模型压缩技术,使在L4 GPU上运行BERT LLM的效能提升达4.7倍。这一结果在MLPerf的所谓开放组别(Open Division)中实现,这是用于展示新能力的一个类别。该技术预计将适用于所有人工智能工作负载。当在尺寸和功耗受限的边缘设备上运行模型时,它尤其有价值。

在另一个边缘运算领先范例中,NVIDIA Jetson Orin系统模块显示物件侦测的效能相对前一轮测试提升高达84%,这是边缘人工智能和机器人场景中常见的电脑视觉使用案例。

Jetson Orin的先行产品来自采用最新版芯片核心的软件,如可程序设计视觉加速器、NVIDIA Ampere架构GPU和专用深度学习加速器。

多功能的效能,广大的生态系统

MLPerf基准是透明且客观的,因此使用者可以依靠其结果做出明智的购买决策。它们涵盖了广泛的应用案例和情景,因此使用者知道他们可以获得可靠且部署灵活的效能。

在本轮测试中参与提交的合作夥伴包括云端服务供应商Microsoft Azure和Oracle Cloud Infrastructure,以及华硕电脑、Connect Tech、戴尔科技集团、富士通公司、技嘉科技、慧与科技、联想集团、云达科技和美超微等系统制造商。

总体来说,MLPerf得到了超过70家组织的支持,包括阿里巴巴、ARM、思科、Google、哈佛大学、英特尔、Meta、微软和多伦多大学等。

欲了解更多详细信息以及我们如何获得这些成果,请阅读技术博客文章

于此次测试中使用的各种软件公开于MLPerf资源库,每个人都能取得这些世界级的成果。NVIDIA不断将最佳化结果放入NVIDIA NGC (GPU 加速软件目录)的容器中,提供GPU应用。


关键字
商情专辑-AI专栏