当今市场上数据中心 GPU 中的精尖之作
欢迎进入人工智能时代
各行各业都希望实现智能化,不断扩张的数据海洋中暗藏着可推动行业变革的真滴。无论是个性化癌症治疗方案、预测下一场飓风,还是能自如交谈的虚拟助手。只要数据科学家得到实现其毕生事业所需的工具,这些机遇即可变为现实。
NVIDIA® Tesla® V100(点击查看产品手册) 是当今市场上机器先进的数据中心GPU,能加快人工智能、高性能和图形技术的发展。Tesla V100采用新一代GPU架构(即NVIDIA Volta™),可在一个GPU中提供100个CPU的性能,让数据科学家、研究人员和工程师能够解决以前无法解决的难题。
人工智能训练
从语音识别到训练虚拟个人助理和教会自动驾驶汽车自动驾驶,数据科学家们正利用人工智能解决日益复杂的挑战。解决此类问题需要花大量时间密集训练复杂性飞速增长的深度学习模型。
Tesla V100 拥有640个Tensor内核,是世界上第一个突破100万亿次(TFLOPS)深度学习性格障碍的GPU。新一代NVIDIA NVLink™以高达300GB/s的速度链接多个V100 GPU。
以全球打造出功能及其强大的计算服务器。现在,在之前的系统中需要消耗数周计算资源的人工智能模型在几天内就可以完成训练。随着训练时间的大幅缩短,人工智能现在可以解决各类新型问题。
以全球打造出功能及其强大的计算服务器。现在,在之前的系统中需要消耗数周计算资源的人工智能模型在几天内就可以完成训练。随着训练时间的大幅缩短,人工智能现在可以解决各类新型问题。
人工智能推理
为了利用最相关的信息、服务和产品加强人与人之间的联系,超大规模计算公司已经开始采用人工智能。然而,及时满足用户需求是一项困难的挑战。例如,全球最大的超大规模计算公司最近估计,如果每个用户一天仅花费三分钟时间使用其语音识别服务,他们便需要将数据中心的容量翻倍。
我们设计Tesla V100就是为了在现有的超大规模服务器机架上提供更高的性能。由于将人工智能作为核心,Tesla V100 GPU可提供比CPU服务器高30倍的推力性能。这种吞吐量和效率的大幅提升将使人工智能服务的扩展变成现实。
![]() |
高性能计算(HPC)
高性能计算是现代科学的基石。从天气预报到发现药物和发现新能源,研究人员使用大型计算系统来模拟和预测我们的世界。
人工智能可让研究人员分析大量数据,在仅凭模拟无法完全预测真实世界的情况下快速获取见解,从而扩展了传统的高性能计算。
Tesla V100的设计能够融合人工智能和高性能计算。它为高性能计算系统提供了一个平台,在用于科学模拟的计算机科学和用于在数据中发现见解的数据科学方面表现优异。 通过在一个统一架构内搭配使用NVIDIA CUDA® 内核和Tensor内核,配备Tesla V100 GPU的单台服务器可以取代数百台仅配备通用CPU的服务器来处理传统的高性能计算和人工智能工作负载。
现在,每位研究人员和工程师都可以负担得起使用人工智能超级计算机处理最具挑战性工作的做法。
|
![]() |
![]() |
NVLINK 接口的 NVIDIA TESLA V100为深度学习提供卓越性能 |
PCIe 接口的 NVIDIA TESLA V100通用性出众适合处理各种工作负载 |
VOLTA架构 通过在一个统一架构内搭配使用CUDA内核和Tensor内核,配备Tesla V100GPU的单台服务器可以取代数百台通用CPU服务器来处理传统的HPC和深度学习。 |
TENSOR核心 Tesla V100配有640个Tensor核心,可提供125万亿次级的深度学习性能。与NVIDIA Pascal GPU相比,可为深度学习训练提供12倍张量浮点运算能力;为深度学习推理提供6倍张量浮点运算能力。 |
新一代NVLINK Tesla V100中采用的NVIDIA NVLink可提供2倍于上一代的吞吐量。8块Tesla V100加速器能以高达300GB/s的速度互联,从而发挥出单个服务器所能提供的最高应用性能。 |
|||
|
最大节能模式 全新的额最大节能模式可允许数据中心在现有的功耗预算内,使每个机架最高提升40%的计算能力。在此模式下,Tesla V100以最大处理效率运行时,可提供高达80%的性能而只需一半的功耗。 |
|
HBM2 Tesla V100将900GB/s的改良版原始带宽与高达95%的DRAM利用效率相结合,在STREAM上测量时可提供高于Pascal GPU 1.5倍的显存带宽。 |
|
可编程性 Tesla V100的架构设计初衷即是为了简化可编程性。其全新的独立县城调度能力可实现细粒度同步,并能通过在琐碎的工作之间共享资源进而提升GPU的利用率。 |