Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

李泽南 李亚洲作者

6倍性能,黄仁勋终于带来了全新GeForce RTX显卡

2016 年 5 月 6 日,英伟达推出了 GeForce 10 系列,Pascal 架构的首款显卡,GTX 1080。两年又两个月过去了,今天在德国科隆游戏展上,黄仁勋终于为 GeForce 系列揭开了新的一页,为世人带来了搭载 12 纳米制程 Turing 架构的全新消费级显卡 RTX 2070、RTX 2080 和 RTX 2080Ti。

黄仁勋把这次 RTX 20 系列的发布称为「重新发明图形」(GRAPHICS REINVENTED)。看来英伟达对于打磨超过 10 年的图灵架构寄予了厚望。新显卡显然也拥有着大大超出以往的性能。

GeForce RTX 发布重点:

  • 同时发布三款消费级显卡:GeForce RTX 2080 Ti、RTX 2080 和 RTX 2070

  • 起售价分别为 999、699 和 499 美元(创始版各加 100 美元)

  • 新显卡采用图灵架构,同时也都包含 Tensor Core 和 RT Core

  • 新显卡采用 DDR6 内存

  • 即日起接受预订,9 月 20 日全球同步发售

英伟达宣称,GeForce RTX 20 系列对比上一代 Pascal 架构的同级 GeForce 显卡将有「成倍的」性能提升。在目前能找到的数据上来看,售价 999 美元的公版 GeForce RTX 2080Ti 的显存为 11G,其包含 4352 个 CUDA 核心,存储总线 352bit,核心动态提升频率 1545 MHz,采用 PCI Express 3.0 接口,功率为 250W。

显然,在这两年间,英伟达的技术一直在快速发展。上周在加拿大温哥华举行的 SIGGRAPH 计算机图形学顶级年度会议中,这家芯片巨头刚刚发布了新一代显卡架构——Turing(图灵),并将其搭载在了全新一代 Quadro RTX GPU 上。而在更早之前的 2017 年 5 月,英伟达还发布了专门为深度学习计算加速的 Volta 架构,面向专业市场,并将 GPU 的制程技术推进到了 12nm。今天,英伟达在德国科隆举办了 GeForce Gaming Celebration 庆祝活动,发布了以上三款显卡。

「先抑后扬」的发布会

在 GeForce RTX 系列推出之前,英伟达的下一代 GeForce 显卡会是什么成为了巨大的谜团,众多媒体纷纷给出了自己的猜测和爆料。黄仁勋当然知道,于是他的演讲就以回应大家的好奇开始。

「今天我们发布 GeForce RTX 1180?我从没看到过被泄露得这么彻底的产品,」黄仁勋用上了这样的开场白。「你们在网上看到的一切都是错的!好消息是:今天你们都会看到惊喜!」

而后,黄仁勋带我们回顾了一遍 GPU 变革历史,以及光线追踪,这一 RTX 显卡重要技术的发展历程。他表示,「我们的 GPU 速度每十年快 1000 倍,而比摩尔定律要快 100 倍。」这也是为什么他们创造了英伟达 RTX。这里他还介绍了 RTX 混合渲染技术以及其工作原理。

「从万亿次浮点运算到千万亿次浮点计算要花费超长时间,我们不想等这么久。」黄仁勋表示英伟达 RTX 平台能够加速这一过程。光栅化和光线追踪是显卡处理图形的两大方向,由于 RTX 采用的光线追踪更易于并行化,所以可以获得更高的运行效率、更好的效果。英伟达与微软合作,构建了 DXR 和 RTX,又与 Epic 合作将这些技术应用到了虚幻引擎当中。

提到 RTX,就不得不提到上周宣布的 Turing 架构,黄仁勋把图灵架构称为「自 2006 年 CUDA GPU 以来的最大一次飞跃」。Turing 架构的高速处理能力还改变了传统的图像处理的流程。因为 RT core 和 Tensor Core 同时存在,黄仁勋甚至表示 RTX 显卡可以实时使用人工智能算法生成「更精细的图像」、「中间的帧」。

「RT Core 的光线处理速度是每秒 10 gigarays,而 GeForce GTX 1080 Ti 是 1.21 gigarays/s,」黄仁勋介绍道。

此外,黄仁勋表示,相比于 TitanX 的 12 个,Turing 架构有 78 个 RTX-OPS,也就是说基于 Turing 的 GPU 相当强大,能够提供效果惊艳的实时游戏图形。

发布新显卡之前,英伟达还不得不提到深度学习

人工智能技术的发展越来越快,其中英伟达 GPU 扮演了重要角色,近年来英伟达发布 GPU 时总是会重点提及深度学习。这一次也不例外。英伟达在发布会上展示了可以在一张 GPU 上支持 4K 的 DLSS 抗锯齿技术,由于其利用了 Tensor Core 处理的深度学习超分辨率算法,其效果好于此前同样由英伟达提出,并应用在虚幻引擎上的 TAA 技术。看来,深度学习借 GPU 的力量发展了多年,这一次终于可以「反哺」一下,帮助游戏提升画面水平了。

「我们现在可以先输出低分辨率的图像,用 Tensor Core 训练神经网络让它精细化,达成实时超分辨率的效果。」黄仁勋表示。

英伟达本次发布了 NVIDIA NGX,其可以应用最近人工智能学界提出的深度学习超分辨率等技术,提高游戏等实时演算图形任务的画面质量。

「发布新游戏」,并展示性能

在游戏展,人们主要关注的当然还是新游戏。在这次英伟达的发布会上,黄仁勋向人们展示了几个应用最新 RTX 技术,即将推出的游戏大作,并顺便帮游戏厂商「公布」了一下发售日期。

第一个展示的游戏是即将在 9 月推出的 Shadow of the Tomb Raider(古墓丽影:暗影)。展示了 Turing 架构、RTX 强大的动态点光源和重叠阴影的处理能力。

而后是即将在 2019 年推出的 Metro Exodus(地铁:逃离。这个游戏的前几代也以超高的显卡性能需求而闻名),展示了强光源照射一个窗户内房间的漫反射效果。在以前的室内场景中,游戏开发者只能使用假的点光源营造漫反射的「效果」。启用 RTX 技术之后,房间内的光亮程度更加接近真实水平。

而后黄仁勋找来了「我们家最喜欢的游戏」:《战地》系列的新作《战地 5》。

据黄仁勋介绍,这一代的战地将包括二战,以及穿越剧情,而 EA 的游戏开发人员已经和英伟达在新技术上已经合作了近一年。在首次公开展示的 Demo 中,游戏呈现了鹿特丹街道上的一个战斗场景。火光在人物眼睛、汽车漆面、街道上,甚至枪支木质上都可以呈现出反光效果。RTX 光线追踪技术让游戏世界变得更为真实了。

「想要另一个惊喜?这款游戏今年 9 月 6 号 Beta 测试上线。」黄仁勋如是说。

最后,黄仁勋表示还有很多加入 RTX 技术的新游戏正在加紧开发中,其中包括《最终幻想 15》和《绝地求生》。

三款 GeForce RTX 20 系列显卡

「下面问题来了:这些游戏需要用什么显卡来运行呢?」终于到了激动人心的时刻,黄仁勋脱掉了标志性的黑色夹克,身穿 T 恤举起一块新显卡。10 年努力,GeForce RTX 系列最终面世,本次发布包含三个型号:GeForce RTX 2080Ti、RTX 2080、RTX 2070。从今天开始就可以预订,9 月 20 日发货。

各款芯片的起售价格如下:

在发布会进行的同时,英伟达官网也同步开放了预购页面,其中展示了新显卡的部分性能参数https://www.nvidia.com/en-us/geforce/20-series/

其中 GeForce RTX 2080 Ti 的显存为 11G,功耗 250W;2080 显存为 8G,功耗 215W;2070 的显存也是 8G,功耗 185W。另外,各型号的 FOUNDERS EDITION 版本动态提升频率要比普通版稍高。

如图中所示,RTX 20 系列显卡的发布价格相比上一代 GTX 10 系列略高。那么,RTX 20 系列显卡的性能对比 GTX 10 系列提升了多少呢?黄仁勋并没有给出具体的数字,仅仅提到:「RTX 2070 的性能就比 Titan Xp 还要好」。此外,在 RTX 任务性能的对比上,图灵架构的性能比 PASCAL 架构有了数倍的巨大提升。当然这也是因为 RTX 任务非常特殊。

据称,有两个风扇的 RTX 2080 Ti 创始版为「疯狂的超频」而设计,却又非常安静,其噪音仅为 GTX 1080 Ti 满负荷运转时的 1/5。

「再也不用仔细设计的场景和小技巧了,只需要打开光源,真实的场景就会呈现在你的眼前。」黄仁勋表示。

看来这一次,我们真的要下单了。

产业英伟达芯片游戏
2
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

噪音技术

噪音是一个随机误差或观测变量的方差。在拟合数据的过程中,我们常见的公式$y=f(x)+\epsilon$中$\epsilon$即为噪音。 数据通常包含噪音,错误,例外或不确定性,或者不完整。 错误和噪音可能会混淆数据挖掘过程,从而导致错误模式的衍生。去除噪音是数据挖掘(data mining)或知识发现(Knowledge Discovery in Database,KDD)的一个重要步骤。

图像处理技术

图像处理是指对图像进行分析、加工和处理,使其满足视觉、心理或其他要求的技术。 图像处理是信号处理在图像领域上的一个应用。 目前大多数的图像均是以数字形式存储,因而图像处理很多情况下指数字图像处理。

摩尔定律技术

摩尔定律是由英特尔创始人之一戈登·摩尔提出来的。其内容为:积体电路上可容纳的电晶体数目,约每隔两年便会增加一倍;经常被引用的“18个月”,是由英特尔首席执行官大卫·豪斯所说:预计18个月会将芯片的性能提高一倍。

推荐文章
暂无评论
暂无评论~