当前位置: k8凯发官网-凯发app官网  新能源 > 手机阅读

英伟达核心aic(英伟达新架构发布 ai芯片上限提升9倍 20块带宽等于全球互联网)-k8凯发官网

来源:时间:2022-12-15 13:41:47编辑:人气值:9



机器心脏报告

编辑;泽南、杜伟



黄仁勋:芯片的性能每一代都翻一番,下一代“tensorflow”级别的人工智能工具由英伟达生产。

每年春天,ai从业者和游戏玩家都会期待nvidia的新发布,今年也不例外。

北京时间3月22日晚,gtc新年发布会如期举行。英伟达创始人兼ceo黄仁勋这次走出了他的厨房,走进了超宇宙做主题演讲:

“我们见证了人工智能在科学领域发现新药物和化合物的能力。人工智能现在研究生物和化学,就像它以前理解图像、声音和声音一样。”黄仁勋说:“一旦计算机能力跟上,制药等行业将在科技领域发生与以前一样的变化。」

gpu引爆的ai浪潮开始还没十年,像《变形金刚》这样的预训练模型和自监督学习模型已经不止一次“吃不消”了。

因为大模型,对计算能力的需求呈指数级增长。这次老黄拿出了面向高性能计算(hpc)和数据中心的下一代hopper架构。首款采用新一代芯片的加速卡被命名为h100,是a100的替代产品。

hopper architecture的名字来自计算机科学的先驱格蕾丝赫柏,它延续了nvidia每一代架构性能翻倍的“传统”,并拥有更多意想不到的能力。

为 gpt-3 这样的大模型专门设计芯片

h100采用tsmc 5nm定制版工艺(4n)制造,单个芯片包含800亿个晶体管。也是全球首款pci-e 5和hbm 3显卡,一个h100的io带宽是每秒40太字节。

「为了形象一点说明这是个什么数字,20 块英伟达 h100 带宽就相当于全球的互联网通信,」黄仁勋说道。

黄仁勋列举了hopper架构与上一代安培相比的五大创新:

首先是性能的突飞猛进,这是通过一种新的张量处理格式fp8实现的。h100的fp8计算能力是4万亿次,fp16是2万亿次,tf32是1万亿次,fp64和fp32是60万亿次。

虽然比苹果m1 ultra的1140亿晶体管小,但a100的功率可以高达700w——或400w。“在ai任务上,h100的fp8精度是a100上fp16的6倍。这是我们历史上最大的性能提升,”黄仁勋说。

图片:anandtech

类变形金刚预训练模型是目前ai领域最火的方向。nvidia甚至以优化h100的设计为目标,提出了transformer engine,集成了新的tensor core、fp8和fp16精确计算。

以及 transformer 神经网络动态处理能力,可以将此类机器学习模型的训练时间从几周缩短到几天。

transformer 引擎名副其实,是一种新型的、高度专业化的张量核心。简而言之,新单元的目标是使用可能的最低精度来训练 transformer 而不损失最终模型性能。

针对服务器实际应用,h100 也可以虚拟化为 7 个用户共同使用,每个用户获得的算力相当于两块全功率的 t4 gpu。而且对于商业用户来说更好的是,h100 实现了业界首个基于 gpu 的机密计算。hopper 还引入了 dpx 指令集,旨在加速动态编程算法。动态编程可将复杂问题分解为子问题递归解决,hopper dpx 指令集把这种任务的处理时间缩短了 40 倍。

hopper 架构的芯片和 hbm 3 内存用台积电 cowos 2.5d 工艺封装在板卡上,形成「超级芯片模组 sxm」,就是一块 h100 加速卡:

这块显卡拿着可得非常小心——它看起来整体异常紧凑,整个电路板上塞满各种元器件。另一方面,这样的结构也适用于液冷——h100 设计 700w 的 tdp 已经非常接近散热处理的上限了。

自建全球第一 ai 超算

「科技公司处理、分析数据,构建 ai 软件,已经成为智能的制造者。他们的数据中心就是 ai 的工厂,」黄仁勋说道。

基于 hopper 架构的 h100,英伟达推出了机器学习工作站、超级计算机等一系列产品。8 块 h100 和 4 个 nvlink 结合组成一个巨型 gpu——dgx h100,它一共有 6400 亿晶体管,ai 算力 32 petaflops,hbm3 内存容量高达 640g。

新的 nvlink swith system 又可以最多把 32 台 dgx h100 直接并联,形成一台 256 块 gpu 的 dgx pod。「dgx pod 的带宽是每秒 768 terbyte,作为对比,目前整个互联网的带宽是每秒 100 terbyte,」黄仁勋说道。基于新 superpod 的超级计算机也在路上,英伟达宣布基于 h100 芯片即将自建一个名叫 eos 的超级计算机,其由 18 个 dgx pod 组成,一共 4608 个 h100 gpu。以传统超算的标准看,eos 的算力是 275petaflops,是当前美国最大超算 summit 的 1.4 倍,summit 目前是基于 a100 的。

从 ai 计算的角度来看,eos 输出 18.4 exaflops,是当今全球第一超算富岳的四倍。

总而言之,eos 将会是世界上最快的 ai 超级计算机,英伟达表示它将会在几个月之后上线。

下面看看 h100 在具体任务上的性能提升:单看 gpu 算力的话训练 gpt-3 速度提升 6.3 倍,如果结合新的精度、芯片互联技术和软件,提升增至 9 倍。在大模型的推理工作上,h100 的吞吐量是 a100 的 30 倍。

对于传统服务器,英伟达提出了 h100 cnx,通过把网络与 h100 直接并联的方式绕过 pcie 瓶颈提升 ai 性能。

英伟达更新了自家的服务器 cpu,新的 grace hopper 可以在同一块主板上两块并联,形成一个拥有 144 核 cpu,功耗 500w,是目前产品性能的 2-3 倍,能效比也是两倍。

在 grace 上,几块芯片之间的互联技术是新一代 nvlink,其可以实现晶粒到晶粒、芯片到芯片、系统到系统之间的高速互联。黄仁勋特别指出,grace cpu 与 hopper 可以通过 nvlink 进行各种定制化配置。英伟达的技术可以满足所有用户需求,在未来英伟达的 cpu、gpu、dpu、nic 和 soc 都可以通过这种技术实现芯片端高速互联。

英伟达计划在今年三季度推出配备 h100 的系统,包括 dgx、dgx superpod 服务器,以及来自 oem 凯发app官网的合作伙伴使用 hgx 基板和 pcie 卡服务器。

至于价格,昨天老黄并没有说「the more you buy, the more you save.」

此前有传闻说专用于游戏的 ada lovelace 架构,昨天并没有出现在黄仁勋的 keynote 中,看来还要再等等。

人人可见的元宇宙

「第一波 ai 学习了生物的预测推断能力,如图像识别、语言理解,也可以向人们推荐商品。下一波 ai 将是机器人:ai 做出计划,在这里是数字人、物理的机器人进行感知、计划并行动,」黄仁勋说道。「tensorflow 和 pytorch 等框架是第一波 ai 必须的工具,英伟达的 omniverse 是第二波 ai 的工具,将会开启下一波 ai 浪潮。」

在元宇宙这件事上,英伟达可以说一直走在最前面,其提出的 omniverse 是连接所有元宇宙的门户。但在以往,omniverse 是面向数据中心设计的,其中的虚拟世界偏向于工业界。

黄仁勋表示,英伟达的 omniverse 涵盖了数字孪生、虚拟世界和互联网的下一次演进。下图为几种典型应用场景:

而对于数字孪生而言,omniverse 软件和计算机必须具备可扩展、低延迟和支持精确时间的特点。所以,创建同步的数据中心非常重要。基于此,英伟达推出了 nvidia ovx——用于工业数字孪生的数据中心可扩展 omniverse 计算系统。

第一代 nvidia ovx omniverse 计算机由 8 个 nvidia a40 gpu、3 个 nvidia connectx-6 200 gbps 网卡、2 个 intel ice lake 8362 cpu 以及 1tb 系统内存和 16tb nvme 存储组成。

然后,英伟达利用 spectrum-3 200 gpbs 交换机连接 32 台 ovx 服务器构成了 ovx superpod。目前,全球各大计算机制造商纷纷推出 ovx 服务器。第一代 ovx 正由英伟达和早期客户运行,第二代 ovx 也正从骨干网络开始构建当中。会上,英伟达宣布推出带宽高达 51.2tbps 且带有 1000 亿个晶体管的 spectrum-4 交换机,它可以在所有端口之间公平分配带宽,提供自适应路由和拥塞控制功能,显著提升数据中心的整体吞吐量。

凭借 conenctx-7 和 bluefield-3 适配器以及 doca 数据中心基础架构软件,spectrum-4 成为世界上第一个 400gbps 的端到端网络平台。与典型数据中心数毫秒的抖动相比,spectrum-4 可以实现纳秒级计时精度,即 5 到 6 个数量级的改进。黄仁勋表示,样机预计将于第四季度末发布。

说到元宇宙,则不得不提英伟达 omniverse avatar 平台。在本次 gtc 大会上,黄仁勋与「自己」(虚拟人)展开了一番对话。同时,英伟达还希望 omniverse 为设计师、创作者、ai 研究人员提供帮助,因而推出了 omniverse cloud。只需点击几下,用户及其协作者可以完成连接。使用 nvidia rtx pc、笔记本电脑和工作站,设计师们可以实时协同工作。即使没有 rtx 计算机,他们也可以从 geforce now 上一键启动 omniverse。

比如下图中远程工作的几位设计师在网络会议中使用 omniverse view 来评审项目,他们可以连接彼此,并唤出一个 ai 设计师。也即是,他们通过 omniverse cloud 协作创建了一个虚拟世界。

在这场 gtc 大会上,黄仁勋打开了元宇宙的大门。持续加注自动驾驶和电动汽车

既然机器人系统会是下一波 ai 浪潮,黄仁勋表示,英伟达正在构建多个机器人平台——用于自动驾驶汽车的 drive、用于操纵和控制系统的 isaac、用于自主式基础架构的 metropolis 和用于机器人医疗器械的 holoscan。这里只介绍 drive 自动驾驶汽车系统。

机器人系统的工作流程很复杂,通常可以简化为四个支柱:收集和生成真值数据、创建 ai 模型、使用数字孪生进行仿真和操作机器人。omniverse 是整个工作流程的核心。

drive 自动驾驶汽车系统本质上是「ai 司机」。与其他平台一样,nvidia drive 是全栈式端到端平台,对开发者开放,他们可以使用整个平台或者其中一部分。在运行过程中,英伟达使用 deepmap 高清地图等收集和生成真值数据,使用 dgx 上的 nvidia ai 来训练 ai 模型。omniverse 中的 drive sim 在 ovx 上运行,它属于数字孪生。drive av 是一款运行在车载 orin 计算平台上的自动驾驶应用。

在使用最新版 drive 系统的实际行驶中,驾驶员可以启动 drive pilot 导航,语音输入指令。信心视图(confidence view)向车上的人展示汽车看到和打算要做的事。ai 助手可以探测到特定的人,多模态 ai 助手可以回答驾驶员的问题,ai 辅助停车可以检测可用的停车位,环绕视图(surround view)和高级可视化(advanced visualization)方便驾驶员泊车。所有这一切都离不开英伟达自动驾驶汽车硬件结构——hyperion 8,它也是整个 drive 平台的构建基础。hyperion 8 是由多个传感器、网络、两台 chauffeur av 计算机、一台 concierge ai 计算机、一个任务记录仪以及(网络)安全系统组成。它可以使用 360 度摄像头、雷达、激光雷达和超声波传感器套件实现全自动驾驶,并将分别从 2024 年起在梅赛德斯奔驰汽车、2025 年起在捷豹路虎汽车中搭载。drive sim 中构建的 hyperion 8 传感器可以提供真实世界的视图。

今天,英伟达宣布 hyperion 9 将从 2026 年起在汽车上搭载。相较于前代,hyperion 9 将拥有 14 个摄像头、9 个雷达、3 个激光雷达和 20 个超声传感器。整体而言,它处理的传感器数据量是 hyperion 8 的两倍。


在电动汽车领域,英伟达 drive orin 是理想汽车的集中式自动驾驶和 ai 计算平台。黄仁勋在会上宣布,orin 将于本月发售。不仅如此,比亚迪也将为 2023 年上半年投产的电动汽车搭载英伟达 drive orin 系统。

「omniverse 在英伟达 ai 和机器人领域的工作中非常重要,下一波 ai 浪潮需要这样的平台,」黄仁勋最后说道。

参考内容:https://www.anandtech.com/show/17327/nvidia-hopper-gpu-architecture-and-h100-accelerator-announced



suv最新文章


热门suv排行榜

suv汽车视频

suv排行榜推荐

网站地图