>科技>>正文

最高加速 50 倍,99 美元即可运行所有 AI 模型,一文看尽黄仁勋的创新骤变

原标题:最高加速 50 倍,99 美元即可运行所有 AI 模型,一文看尽黄仁勋的创新骤变

北京时间 3 月 19 日凌晨 5 点钟,在美国加州圣何塞的圣何塞大学活动中心,一年一度的英伟达 GTC(GPU Technology Conference)大会迎来了本年度最重要的 Keynote 环节,也就是英伟达创始人兼 CEO 黄仁勋的重磅演讲。这是英伟达举办的第十届 GTC 大会。

作为英伟达展示其技术实力和产品进展的最重要的舞台,本次 GTC(也称 GTC 2019 )覆盖了 AI/深度学习、数据中心加速、自动驾驶、图像处理与模拟、高性能计算、机器人等多个领域。雷锋网编辑也受邀来到 GTC 2019 现场,见证了英伟达在诸多领域的最新进展。

那么,在本次 GTC 的 Keynote 上,英伟达放出了哪些“核弹”呢?

发布 CUDA X AI,加速数据科学

本次 Kyenote 上,黄仁勋发布了全新的 AI 加速库——CUDA X AI SDK 库。

CUDA X AI SDK 可以用于数据分析、机器学习、深度学习等多个领域的加速;它可以更好地释放 Tensor Core GPU 的灵活性,实现以下诸多方面的加速:

  • 数据科学中的数据获取、ETL、模型训练和部署;
  • 机器学习算法的压缩、分类等;
  • 深度学习中的的训练框架,针对 NVIDIA Tensor Core GPU 进行自动优化;
  • 云端的推理和大规模 Kubernetes 部署;
  • PC、工作站、超计算机、企业数中心中的数据科学;
  • AWS、Google Cloud 和微软 Azure 云计算中的 AI 服务。

英伟达方面表示,CUDA-X AI 可以实现机器学习和数据科学最高 50 倍的负载加速,它包含了十几个特性的加速库。比如说,它可以通过 cuDF 加速数据分析,通过 cnDNN 加速深度学习,通过 cuML 加速机器学习算法,通过 DALI 加速数据处理。

当前,CUDA-X AI 已经被 Charter、微软、Paypal、SAS 和沃尔玛等公司所采用,同时也支持 TensorFLow、PyTorch 和 MXNet 等主流的深度学习框架。

在本次 GTC 上,黄仁勋宣布,已经有七家世界级的厂商将推出基于 NVIDIA T4 GPU 和 NVIDIA CUDA-X AI 加速库的服务器,这些服务器都已经针对 CUDA-X AI 进行了特殊优化。这七家厂商分别是:思科、戴尔 EMC、富士通、惠普企业、浪潮、联想、曙光。

同时,英伟达宣布,这些厂商推出的上述服务器均为 NVIDIA NGC-Ready 认证通过。2018 年 11 月,英伟达发布了 NGC-Ready 计划,让采用基于英伟达 GPU 系统的客户能够在更广的范围内放心地部署 GPU 加速软件。目前,这些通过认证的服务器的关键型号如下:

  • Cisco UCS C240 M5
  • Dell EMC PowerEdge R740/R740xd
  • Fujitsu PRIMERGY RX2540 M5
  • HPE ProLiant DL380 Gen10
  • Inspur NF5280M5
  • Lenovo ThinkSystem SR670
  • Sugon W760-G30

此外,针对 NGC-Ready 项目,英伟达也宣布了一项全新的企业级支持服务——NVIDIA NGC Support Services,它可以支持所有的 NGC-Ready T4 系统和诸多此前已经通过认证的基于 NVLink 和基于 Tesla V100 的服务器,以及基于 NVIDIA 的工作站。

值得一提的是,在谈到这一环节时,Mellanox Technologies(英伟达此前不久宣布以 69亿美元的价格收购该公司 )CEO Eyal Waldman 也来到现场,与黄仁勋同台亮相,二人对外简单分享了英伟达在加速计算的未来愿景。

另外,在发布会上,黄仁勋与为之站台的亚马逊 AWS 副总裁 Matt Garman 联合宣布,NVIDIA 与亚马逊 EMC 达成合作关系;它的最新的 EC2 G4 服务器采用了英伟达 T4 Tencor Core GPU,该服务器将在未来数周内可用。

全新 99 美元 Jetson Nano 可运行所有 AI 模型

在大篇幅介绍RTX和CUDA-X AI后,黄仁勋表示,机器人无处不在,英伟达非常重视机器人市场,为此开发了一整套的软硬件产品。GTC 2019推出的全新机器人产品是Jetson Nano。借助CUDA-X可以提供472 GFLOPS的AI性能,功率低至5W。Jetson Nano分为两个版本,开发者套件面向开发者、发烧友,售价99美元,面向边缘设备系统公司的模块售价129美元。

黄仁勋现场只介绍了售价99美元的版本,不过展示了基于Jetson Nano的一个小型机器人Kaya,集成了多个传感器。这很好的说明,Jetson Nano支持高分辨率传感器,可处理多个传感器的并行数据,并支持主流的AI框架。

据雷锋网了解,Jetson Nano的关键特性包括:

  • GPU:基于NVIDIA Maxwell架构128核的GPU
  • CPU:四核ARM A57
  • 视频:4K @ 30 fps(H.264 / H.265)/ 4K @ 60 fps(H.264 / H.265)编解码
  • 摄像头:MIPI CSI-2 DPHY通道,12x(模块)和1x(开发者套件)
  • 内存:4 GB 64位LPDDR4; 25.6千兆字节/秒
  • 连接:千兆以太网
  • 操作系统支持:LinuxforTegra
  • 模块尺寸:70mm x 45mm
  • 开发者套件尺寸:100mm x 80mm

DRIVE Constellation正式上市

最后介绍的是自动驾驶。黄仁勋认为,未来的自动驾驶系统将是软件定义。他宣布推出DRIVE AP2X 9.0,并展示了这个系统的工作原理以及它如何构建地图。

于此同时,英伟达还推出了加强的NVIDIA DRIVE AV自动驾驶汽车软件套件,套件主要组成部分软件是Safety Force Field(SFF),SFF是通过获取传感器数据来分析和预测周围环境的动态,并确定车辆和其他道路使用者的安全。

据悉,SFF可以使车辆实现安全的碰撞验证,并不是通过有限的统计数据来分析实际情景,试图模拟高复杂性。SFF使用真实数据精确模拟进行验证,包括高速公路和城市驾驶的场景,这些场景太危险难以在真实世界进行。

接下来,黄仁勋还宣布NVIDIA DRIVE Constellation正式上市,这个可扩展的仿真平台支持大型虚拟车队自动驾驶汽车,效率更高、成本更低、安全性超过了现实世界中可能实现的效率。

汽车的安全性至关重要,但很多情景难以在现实中测试。黄仁勋演示的视频模拟了汽车在不同自然环境(白天或晚上),不同交通情况下的12种自动驾驶情景。

Drive Constellation自动驾驶仿真系统的首次亮相是在GTC 2018上,该系统基于两种不同服务器的计算平台:一台服务器运行 NVIDIA DRIVE Sim 软件来模拟自动驾驶车辆的传感器,,如相机、激光雷达和雷达。另一台DRIVE Constellation Vehicle服务器包含NVIDIA PegasusTM AI 汽车电脑,处理模拟传感数据。DRIVE Constellation Vehicle的驾驶决策将反馈到DRIVE Constellation模拟器,实现位精确,定时精确的硬件在环测试。

简单来说,DRIVE Constellation 生态系统的合作伙伴可以整合他们的开放平台环境模型、车辆模型、传感器模型和交通场景。 通过整合来自更广泛的模拟生态系统的数据集,平台可以生成全面的,多样化和复杂的测试环境。

最后,英伟达还宣布了与丰田宣布了一项新的合作,建立在英伟达DRIVE AGX Xavier AV平台与位于日本的丰田TRI-AD团队和位于美国的丰田研究所(TRI)的持续合作基础之上。

据悉,英伟达和丰田的协议包括开发跨多个扩展的架构车型和类型,加速开发缩短生产时间,以及在具有挑战性的场景中模拟相当于数十亿英里的驾驶。

利用 RTX 技术,发力 3D 行业

在 2018 年的 SIGGRAPH 会议上,英伟达发布了全新的图灵架构惊艳了整个计算机图形行业;同时基于此架构,英伟达发布了 RTX (实施光线追踪)技术和基于该技术的 Quadro 系列 GPU。

不过对于英伟达来说,要想推动 RTX 走向市场,自然离不开合作伙伴的支持。

在本次 GTC 上,英伟达宣布,众多全球顶级的 3D 应用提供商支持 NVIDIA RTX 技术,相关产品将在 2019 年发布;这些应用商包括 Adobe、Unity、Unreal Engine、Pixer 等。按照英伟达的说法,在这样的合作之下,RTX 技术将会在 2019 年到达 900 万 3D 创作者手中。

在这里,黄仁勋发布了 NVIDA OMNIVERSE,它是一个让创作者利用 RTX 技术来进行创作的 3D 开放协作平台。

在这个平台之上,英伟达与 PIxar、Digital Domain 等众多平台合作,支持最新的设计协作行业标准。比如说,它支持 Pixar 的 Scene Deion 技术,在渲染、模型、动画、光效、阴影等方面更好地交换信息,同时也支持 Nvidia 的 Material Definition Language,能够让创作者在多个工作中变换表面材料信息。

同时,创作者也可以利用英伟达的 Omniverse Viewer 来实时查看自定义条件下的 3D 效果。当然,Omniverse Viewer 也利用了 RTX 技术和 CUDA 核心和支持 Tensor Core 的 AI 技术。

基于 RTX 技术,黄仁勋还发布了数据中心级别的图像服务器 NVIDIA RTX Servers,它能够支持渲染、Omniverse 和 Geforce Now 云端游戏服务。其中,有一个最新配置令人震惊,它在 32 个 RTX blade Server(每个 blade Server 拥有 40 个 GPU) 上部署了 1280 个图灵架构的 GPU,从而在云渲染、效率和规模上实现了飞跃。

目前,包括戴尔、HPE、联想、ASUS、Supermicro 在内,已经有不少服务器厂商已经推出了讲过认证的 NVIDIA RTX 服务器,从而提供数据中心级别的高度可定义、按需分配的内容渲染和虚拟工作站解决方案。

值得一提的是,基于两块 Quadro RTX 8000 GPU(Quadro RTX 系列除了支持实施光线追踪,也 AI 方面也有极佳的表现 ), 英伟达也发布了专门面向数据科学家的工作站,它拥有 96GB 内存,预装了 CUDA-X AI 库,支持 RAPIDS、TensorFlow、Pytorch、Caffe、Anaconda Dsitribution,可以达到 10 倍的数据处理速度。

雷锋网总结

与往年相比,本次的 GTC 既没有发布新的 GPU 架构,也没有抛出什么重磅的 GPU 硬件新技术和新品;然而,一向雷厉风行的黄仁勋却严重拖堂了——原本计划两小时的 Keynote,最终花了两小时四十分钟才结束。

从 Keynote 内容来看,英伟达在本次 GTC 上想要传递的信息有两点:一是利用现有的 GPU 技术来实现基于 AI 的加速计算,以此来应对 AI 时代数据科学所面临的挑战;二是在现有的 GPU 能力的基础上,努力扩展在 3D 视觉、自动驾驶等领域的行业,从而构建出一个更加广泛的 GPU 应用生态——这对英伟达未来价值的实现,毫无疑问是非常必要的。

更多有关强化学习的学术和论文话题,欢迎点击阅读原文加入 AI 研习社强化学习论文套理论小组~返回搜狐,查看更多

责任编辑:

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
投诉
免费获取
今日搜狐热点
今日推荐