鲲鹏-GPU加速型:计算加速型P2vs

时间:2024-01-02 22:19:48

计算加速型P2vs

概述

P2vs型弹性云服务器采用NVIDIA Tesla V100 GPU (32G显存),在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2vs型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。

规格

表8 P2vs型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽(Gbps)

最大收发包能力

(万PPS)

网卡多队列数

GPU

GPU连接技术

显存

(GiB)

虚拟化类型

p2vs.2xlarge.8

8

64

10/4

50

4

1 × V100

-

1 × 32GiB

KVM

p2vs.4xlarge.8

16

128

15/8

100

8

2 × V100

NVLink

2 × 32GiB

KVM

p2vs.8xlarge.8

32

256

25/15

200

16

4 × V100

NVLink

4 × 32GiB

KVM

p2vs.16xlarge.8

64

512

30/30

400

32

8 × V100

NVLink

8 × 32GiB

KVM

P2vs型弹性云服务器功能如下:

  • 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
  • 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程
  • 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
  • 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
  • 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。
  • 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。
  • 单实例最大网络带宽30Gb/s。
  • 使用32GiB HBM2显存,显存带宽900Gb/s。
  • 完整的基础能力:
    • 网络自定义,自由划分子网、设置网络访问策略。
    • 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
    • 弹性伸缩,快速增加或减少云服务器数量。
  • 灵活选择:

    与普通云服务器一样,P2vs型云服务器可以做到分钟级快速发放。

  • 优秀的超算生态:

    拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2vs实例上。

常规软件支持列表

P2vs型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2vs型云服务器。

常用的软件支持列表如下:
  • Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
  • RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
  • Agisoft PhotoScan
  • MapD

使用须知

  • P2vs型按需云服务器当前支持如下版本的操作系统:
    • Windows Server 2016 Standard 64bit
    • Ubuntu Server 16.04 64bit
    • CentOS 7.5 64bit
  • 使用公共镜像创建的P2vs型云服务器,默认已安装Tesla驱动。
  • 使用私有镜像创建的P2vs型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包
support.huaweicloud.com/clilist-kunpeng/ecs_01_0045.html