加入收藏 | 设为首页 | 会员中心 | 我要投稿 辽源站长网 (https://www.0437zz.com/)- 云专线、云连接、智能数据、边缘计算、数据安全!
当前位置: 首页 > 站长资讯 > 传媒 > 正文

厨房中的NVIDIA GTC 2020演讲 黄仁勋奉上了哪些劲爆“料理”?

发布时间:2020-05-16 11:34:17 所属栏目:传媒 来源:站长网
导读:副标题#e# 至顶网计算频道 05月15日 新闻消息(文/李祥敬):众所周知的原因,今年很多厂商的年度活动因为疫情原因纷纷取消了线下活动,而是改为线上举行。同样,备受期待的NVIDIA GTC 2020也将活动搬到了网上,推出了GTC Digital,但是当时我们期待的NVIDI
副标题[/!--empirenews.page--]

至顶网计算频道 05月15日 新闻消息(文/李祥敬):众所周知的原因,今年很多厂商的年度活动因为疫情原因纷纷取消了线下活动,而是改为线上举行。同样,备受期待的NVIDIA GTC 2020也将活动搬到了网上,推出了GTC Digital,但是当时我们期待的NVIDIA CEO黄仁勋先生的主题演讲并没有出现在GTC Digital日程中,或许是由于不确定性的疫情情况。

厨房中的NVIDIA GTC 2020演讲 黄仁勋奉上了哪些劲爆“料理”?

就在昨天北京时间5月14日晚九点,黄仁勋的NVIDIA GTC 2020演讲在厨房中举行。在此次主题演讲前,NVIDIA就发布了一个三十几秒的预热视频,视频中黄仁勋从烤箱中取出了一个巨型产品,号称是世界上最大的GPU。

就在昨天的正式发布中,这款产品的面纱被解开,那就是基于NVIDIA Ampere架构的GPU——NVIDIA A100。在全新Ampere架构的GPU牵引下,NVIDIA宣布了在数据中心、AI、HPC、边缘智能、自主机器、自动驾驶、图形渲染等领域的一系列的更新。

全新架构 全新特性

按照NVIDIA产品架构的更新节奏,今年的Ampere架构备受期待。其实在正式公布之前,网上相关的信息已经铺天盖地了,这也看出了业界对于新架构的关注程度。

厨房中的NVIDIA GTC 2020演讲 黄仁勋奉上了哪些劲爆“料理”?

在硬件架构层面,NVIDIA Ampere GPU采用了7纳米制程工艺,包含超过540亿个晶体管,这样的数据足以令人乍舌。而NVIDIA广泛采用的Tensor Core核心也获得了更新,具有TF32的第三代Tensor Core核心能在无需更改任何代码的情况下,使FP32精度下的AI性能提高多达20倍。此外,Tensor Core核心现在支持FP64精度,相比于前代,其为HPC应用所提供的计算力比之前提高了多达2.5倍。

同时,全新Ampere架构搭载了多实例GPU(MIG)、第三代NVIDIA NVLin、结构化稀疏等技术。其中MIG技术可以将单个A100 GPU分割为多达七个独立的GPU,为不同规模的工作提供不同的计算力,以此实现最佳利用率和投资回报率的最大化。而第三代NVIDIA NVLink使GPU之间的高速联接增加至原来的两倍,实现服务器的高效性能扩展。第三代NVIDIA NVLink互联技术能够将多个A100 GPU合并成一个巨大的GPU来执行更大规模的训练任务。

得益于其诸多创新,NVIDIA A100集合了AI训练和推理,其性能相比于前代产品提升了高达20倍。

数据中心场景产品更新

从NVIDIA的最新财报可以看到,数据中心业务在NVIDIA的营收中的比重越来越高。而在数据中心布局方面,NVIDIA也在不断深入扩展。

基于NVIDIA A100,NVIDIA推出了全新的NVIDIA DGX A100系统和HGX A100服务器构建模块。其中,DGX A100系统具有高达5Petaflops的AI性能,集成了8个全新NVIDIA A100 Tensor Core GPU,具有320GB内存用以训练最大型的AI数据集,以及最新的高速NVIDIA Mellanox HDR 200Gbps互连。

一个由5台DGX A100系统组成的机架可代替一个包括了AI训练和推理基础设施的数据中心,而且功耗仅是其1/20,所占用的空间是其1/25,成本是其1/10。利用A100的多实例GPU功能,每台DGX A100系统能够被分割为多达56个实例,用于加速多个小型工作负载的处理速度。凭借这些功能,企业可在一个完全集成的软件定义平台上根据自己的需求优化计算力和资源,加快数据分析、训练和推理等各种工作负载的速度。

据悉,DGX A100系统首批订单将送往美国能源部的阿贡国家实验室(Argonne National Laboratory)。该实验室将运用该集群的AI和计算力来更好地研究和应对COVID-19。

NVIDIA还展示了新一代DGX SuperPOD并发布了DGX SuperPOD参考架构。该集群由140台DGX A100系统组成, AI计算能力高达700Petaflops。利用Mellanox HDR 200Gbps InfiniBand互连技术,NVIDIA将140台DGX A100系统结合在一起,构建了DGX SuperPOD AI超级计算机。

此外,NVIDIA还推出了NVIDIA DGXpert计划,帮助DGX客户与NVIDIA的AI专家建立联系;还有NVIDIA DGX-Ready软件计划,帮助客户在AI工作流程中充分利用各种经过认证的企业级软件。

硬件的更新是一方面,软件与硬件的协同才能发挥最大价值。NVIDIA还发布了多个软件堆栈更新,使应用程序开发者能够充分发挥A100 GPU的性能。这些更新包括了50多个新版本CUDA-X库,可用于加速图形、模拟和AI;CUDA 11;多模态对话式AI服务框架NVIDIA Jarvis;深度推荐应用框架NVIDIA Merlin;NVIDIA为Apache Spark 3.0带来端到端的GPU加速;以及NVIDIA HPC SDK,其中包括能够帮助HPC开发者调试和优化A100代码的编译器、库和工具。

边缘AI平台更新

除了数据中心产品的更新,NVIDIA也更新了EGX边缘AI平台产品:适用于较大型商业通用服务器上的EGX A100和适用于微型边缘服务器的微型EGX Jetson Xavier NX。

厨房中的NVIDIA GTC 2020演讲 黄仁勋奉上了哪些劲爆“料理”?

EGX A100是首个基于NVIDIA Ampere架构的边缘AI产品。EGX A100结合了NVIDIA Ampere架构与NVIDIA Mellanox ConnectX-6 Dx SmartNIC,能将标准型和专用型的边缘服务器转变为极具安全性的云原生AI超级计算机。

而EGX Jetson Xavier NX是全球体积最小、性能最强大的AI超级计算机,能够在15W功率下提供最高21TOPS的计算力,或在10W功率下提供最高14TOPS的计算力,适用于微型服务器和边缘智能物联网盒。

配套硬件,NVIDIA推出了NVIDIA Jetson Xavier NX开发者套件。此外,EGX边缘AI平台的云原生架构使其可以运行容器化的软件,以支持一系列GPU加速的工作负载。NVIDIA应用框架包括了用于医疗领域的Clara、用于电信领域的Aerial、用于对话式AI领域的Jarvis、用于机器人技术领域的Isaac,以及用于零售、智慧城市、交通等领域的Metropolis。

自动驾驶NVIDIA DRIVE强势升级

随着NVIDIA Ampere架构的推出,NVIDIA DRIVE平台得到了进一步的扩展,实现了从入门级ADAS解决方案到L5级自动驾驶出租车(Robotaxi)系统的全方位性能提升。此次扩展的范围从NCAP五星ADAS系统到DRIVE AGX Pegasus Robotaxi平台。后者配备两个Orin SoC和两块NVIDIA Ampere GPU,可实现前所未有的每秒2000万亿次运算,超过上一代平台性能的6倍。

(编辑:辽源站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读