Nvidia发布最强AI芯片架构Blackwell和推理微服务NIM

科技荐闻 2024-03-20 08:16:06

原文[1]:Kif Leswing[2] - 2024.03.18

(Nvidia CEO 黄仁勋在 2024 年 3 月 18 日,于加利福尼亚州圣何塞的 Nvidia GTC 人工智能大会上发表了主题演讲。)

周一,Nvidia 推出了新一代的人工智能芯片以及运行人工智能模型的软件。这一消息是在 Nvidia 在圣何塞举办的开发者大会上宣布的,此举是芯片制造商希望巩固其作为 AI 公司首选供应商的地位。

自从 OpenAI 的 ChatGPT 在 2022 年底引发了 AI 热潮以来,Nvidia 的股价已经翻了五倍,而总销售额也增长了三倍以上。Nvidia 的高端服务器 GPU 对于训练和部署大型 AI 模型至关重要。像微软和 Meta 这样的公司已经花费了数十亿美元购买这些芯片。

这一代新的 AI 图形处理器被命名为 Blackwell。首款 Blackwell 芯片被称为 GB200,将在今年晚些时候开始发货。Nvidia 正以更强大的芯片吸引其客户以刺激新订单。例如,公司和软件制造商仍在争先恐后地抢购当前一代的 "Hopper" H100s 和类似的芯片。

Nvidia CEO 黄仁勋周一在加州举行的公司开发者大会上表示:“Hopper 很出色,但我们需要更大的 GPU。”

公司还推出了一个名为 NIM 的创收软件,它将使部署 AI 变得更容易,给客户另一个坚持使用 Nvidia 芯片而不是选择日益增多的竞争者[3]的理由。

Nvidia 的高管表示,公司正在从一个主要以销售芯片为主的供应商,转变为更像微软或苹果那样的平台提供商,其他公司可以在其平台上构建软件。

“Blackwell 不是一个芯片,它是一个平台的名称,”黄仁勋说。

Nvidia 企业副总裁 Manuvir Das 在一次采访中说:“可销售的商业产品是 GPU,而软件是为了帮助人们以不同的方式使用 GPU。当然,我们仍在做这个。但真正改变的是,我们现在真正拥有了一个商业软件业务。”

Das 表示,Nvidia 的新软件将使在 Nvidia 的任意 GPU 上运行程序变得更容易,即使是那些可能更适合部署执行而不是构建 AI 的旧款 GPU。

Das 说:“如果你是开发者,有一个有趣的模型希望人们采用,如果你把它放在 NIM 中,我们会确保它可以在我们所有的 GPU 上运行,这样你就能接触到更多的用户。”

来认识一下,Hopper 的继任者 Blackwell

(Nvidia 的 GB200 Grace Blackwell 超级芯片,配有两个 B200 图形处理器和一个基于 Arm 的中央处理器。)

每两年,Nvidia 都会更新其 GPU 架构,解锁大幅度的性能提升。过去一年发布的许多 AI 模型都是在公司的 Hopper 架构上训练的——这种架构被 H100 等芯片使用,该架构于 2022 年发布。

Nvidia 表示,基于 Blackwell 的处理器,如 GB200,为 AI 公司提供了巨大的性能升级,AI 性能达到 20 万亿次浮点运算,而 H100 的性能为 4 万亿次浮点运算。额外的处理能力将使 AI 公司能够训练更大、更复杂的模型。

该芯片包括 Nvidia 称之为“专门用于运行基于 transformer 的 AI 的 transformer 引擎”,这是支撑 ChatGPT 的核心技术之一。

Blackwell GPU 很大,将两个单独制造的芯片合并成一个由台积电制造的芯片。它也将作为一个名为 GB200 NVLink 2 的整体服务器提供,该服务器结合了 72 个 Blackwell GPU 和其他用于训练 AI 模型的 Nvidia 部件。

(在加利福尼亚州圣何塞的开发者大会上,Nvidia 的 CEO 黄仁勋比较了新的 “Blackwell” 芯片和当前的 “Hopper” H100 芯片的大小。)

亚马逊、谷歌、微软和甲骨文将通过云服务销售 GB200 的使用权限。GB200 将两个 B200 Blackwell GPU 与一个基于 Arm 的 Grace CPU 配对。Nvidia 表示,亚马逊网络服务将用 20,000 个 GB200 芯片构建一个服务器集群。

Nvidia 表示,该系统可以部署一个拥有 27 万亿参数的模型。这甚至比最大的模型,如据报道拥有 1.7 万亿参数的 GPT-4,都要大得多。许多人工智能研究人员认为,拥有更多参数和数据的更大模型可能会解锁新的能力。

Nvidia 并未提供新的 GB200 或其使用系统的成本。根据分析师的估计,Nvidia 基于 Hopper 的 H100,每个芯片的成本在 25,000 至 40,000 美元之间,整个系统的成本高达 200,000 美元。

(Nvidia 还将销售 B200 图形处理器,作为占据整个服务器机架的完整系统的一部分。)

Nvidia 推理微服务

Nvidia 还宣布将新增一款名为 NIM 的产品,即 Nvidia 推理微服务,加入其 Nvidia 企业软件订阅服务。

NIM 使得使用较旧的 Nvidia GPU 进行推理(即运行 AI 软件的过程)变得更容易,并将允许公司继续使用他们已经拥有的数亿 Nvidia GPU。与新 AI 模型的初始训练相比,推理所需的计算能力更少。NIM 使得公司能够运行自己的 AI 模型,而不必向 OpenAI 这样的公司购买 AI 服务。

该策略是让购买基于 Nvidia 的服务器的客户注册 Nvidia 企业版,每个 GPU 每年的许可费用为 4500 美元。

Nvidia 将与 Microsoft 或 Hugging Face 等 AI 公司合作,确保他们的 AI 模型能够在所有兼容的 Nvidia 芯片上运行。然后,开发人员可以使用 NIM 在自己的服务器或基于云的 Nvidia 服务器上高效运行模型,无需进行冗长的配置过程。

Das 说:“在我的代码中,原本是调用 OpenAI 的服务,现在我将改变一行代码,使其指向从 Nvidia 获得的 NIM 服务”

Nvidia 表示,该软件还将帮助 AI 在配备 GPU 的笔记本电脑上运行,而不是在云服务器上运行。

参考资料

[1] 原文: https://www.cnbc.com/2024/03/18/nvidia-announces-gb200-blackwell-ai-chip-launching-later-this-year.html

[2] Kif Leswing: https://www.cnbc.com/kif-leswing/

[3] 日益增多的竞争者: https://www.cnbc.com/2023/12/07/amd-stock-spikes-after-company-launches-ai-chip-to-rival-nvidia.html

0 阅读:0

科技荐闻

简介:程序员。关注科技资讯、行业热点、全球新闻。