较之P2型,P2v型弹性 云服务器 采用NVIDIA Tesla V100 GPU,在提供 云服务 器灵活性的同时,提供 高性能计算 能力和优秀的性价比。P2v型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。
规格名称 |
vCPU |
内存(GB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力(万PPS) |
网卡多队列数 |
GPU |
GPU连接技术 |
显存(GB) |
虚拟化 类型 |
---|---|---|---|---|---|---|---|---|---|
p2v.2xlarge.8 |
8 |
64 |
10/4 |
50 |
4 |
1*V100 |
- |
1*16GB |
KVM |
p2v.4xlarge.8 |
16 |
128 |
15/8 |
100 |
8 |
2*V100 |
NVLink |
2*16GB |
KVM |
p2v.8xlarge.8 |
32 |
256 |
25/15 |
200 |
16 |
4*V100 |
NVLink |
4*16GB |
KVM |
p2v.16xlarge.8 |
64 |
512 |
30/30 |
400 |
32 |
8*V100 |
NVLink |
8*16GB |
KVM |
P2v型弹性云服务器功能如下:
-
支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
-
支持NVIDIA CUDA 并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
-
单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。
-
支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。
-
单实例最大网络带宽30Gb/s。
-
完整的基础能力:网络自定义,自由划分子网、设置网络访问策略;海量存储,弹性扩容,支持备份与恢复,让数据更加安全; 弹性伸缩 ,快速增加或减少云服务器数量。
-
灵活选择:与普通云服务器一样,P2v型云服务器可以做到分钟级快速发放。
-
优秀的超算生态:拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2v实例上。
常规软件支持列表
P2v型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2v型云服务器。常用的软件支持列表如下:
-
Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
-
RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
-
Agisoft PhotoScan
-
MapD
使用须知
-
使用私有 镜像 创建的P2v型云服务器,请确认在制作私有镜像时已安装NVIDIA驱动。如果未安装,需在P2v型云服务器创建完成后进行驱动安装,实现计算加速功能。
-
P2v型弹性云服务器不支持规格变更。
-
P2v型云服务器当前支持如下版本的操作系统:
-
Windows Server 2016 Standard 64bit
-
Windows Server 2012 R2 Standard 64bit
-
Ubuntu Server 16.04 64bit
-
CentOS 7.4 64bit
-
EulerOS 2.2 64bit