Google Cloud与NVIDIA合作推动人工智能运算、软件和服务 智能应用 影音
Event
荣耀会员

Google Cloud与NVIDIA合作推动人工智能运算、软件和服务

  • 范菩盈台北

Google Cloud与NVIDIA扩展合作夥伴关系,推出新的人工智能基础架构和软件供客户建立和部署大规模生成式人工智能模型。NVIDIA
Google Cloud与NVIDIA扩展合作夥伴关系,推出新的人工智能基础架构和软件供客户建立和部署大规模生成式人工智能模型。NVIDIA

Google Cloud与NVIDIA今日宣布推出新的人工智能基础架构和软件,提供客户建立和部署大规模的生成式人工智能模型,并加速数据科学工作负载。

在Google Cloud Next的一场炉边对谈中,Google Cloud CEO Thomas Kurian与NVIDIA创始人暨CEO黄仁勳讨论了这个合作夥伴关系如何将端到端的机器学习服务带给全球最大型的人工智能客户,包括在基于 NVIDIA 技术建构的Google Cloud服务中,使运行人工智能超级电脑变得更加容易。新的软硬件整合使用了过去两年来Google DeepMind和Google研究团队所使用的相同NVIDIA技术。

黄仁勳表示:「我们正处于一个加速运算和生成式人工智能相结合的转折点,以前所未有的速度推动创新。我们与Google Cloud的扩大合作将帮助开发人员加速他们在基础架构、软件和服务等方面的工作,从而提高能源效率并降低成本。」

Kurian表示:「Google Cloud在人工智能创新方面有着悠久的历史,旨在促进和加速我们客户的创新。许多Google 产品都是基于NVIDIA GPU 建构和提供服务的,我们许多客户正在寻求 NVIDIA 的加速运算,以高效开发大型语言模型,从而推动生成式人工智能的发展。」

NVIDIA的整合加速人工智能和数据科学开发

Google用于建立大型语言模型(LLM)的架构PaxML,现已经优化以支持NVIDIA加速运算。

PaxML最初是为了跨越多个Google TPU加速器切片而构建的,现在使开发人员能够使用NVIDIA H100和A100 Tensor Core GPU进行先进且完全可配置的实验和规模。NVIDIA NGC软件目录中即刻起提供GPU优化的PaxML容器。 此外,PaxML在JAX上运行,JAX已针对利用 OpenXLA编译器的GPU进行了优化。

Google DeepMind和其他Google研究人员是首批使用PaxML与NVIDIA GPU进行探索性研究的团队。

NVIDIA NGC容器登录服务中将立即提供用于PaxML的NVIDIA优化容器,提供全球正在构建新一代人工智能应用的研究人员、新创公司和企业使用。

此外,两家公司还宣布Google透过Google Dataproc服务将无服务器Spark与NVIDIA GPU整合。这将帮助数据科学家加速Apache Spark的工作负载,以准备进行人工智能开发所需的数据。

这些新的整合是NVIDIA和Google广泛合作历史中最新的进展。双方发布多项软硬件产品,包括:Google Cloud将在由NVIDIA H100提供动力的A3虚拟机器上运行 — Google Cloud 2023年8月30日宣布其以NVIDIA H100 GPU提供动力、专门构建的Google Cloud A3虚拟机器将在下个月正式推出,使NVIDIA人工智能平台更易用于广泛的工作负载。与前一代相比,A3虚拟机器的训练速度提高了3倍,网络带宽也有显着的提升。

NVIDIA H100 GPU为Google Cloud的Vertex 人工智能平台提供动力 — 预计未来几周内,在 VertexAI上将普遍可用H100 GPU ,使客户能够快速开发生成式人工智能大型语言模型。

Google Cloud将可使用NVIDIA DGX GH200 — Google Cloud将成为世界上首批能够使用NVIDIA DGX GH200 人工智能超级电脑的公司之一,该超级电脑搭载了NVIDIA Grace Hopper超级芯片,可用于探索其在生成式人工智能工作负载方面的能力。

NVIDIA DGX Cloud将于Google Cloud上运行 — NVIDIA DGX Cloud人工智能超级运算和软件将可供客户直接从网页浏览器中使用,以提供高速和大规模的进阶训练工作负载。

Google Cloud Marketplace上提供NVIDIA AI Enterprise — 使用者能使用NVIDIA AI Enterprise,它是一个安全的云端原生软件平台,可简化开发和部署企业级应用程序,包括生成式人工智能、语音人工智能、电脑视觉等。

Google Cloud率先提供NVIDIA L4 GPU —2023年稍早,Google Cloud随着G2虚拟机器的推出,成为首家提供NVIDIA L4 Tensor Core GPU的云端服务供应商。当客户从CPU切换至L4 GPU以处理人工智能影片工作负载,可提升高达120倍的效能、效率提升99%。L4 GPU广泛用于影像和文字的生成,以及虚拟桌面基础架构(VDI )和人工智能加速的音讯/影片转码。

议题精选-AI专栏