推理加速型Pi1
Pi1型弹性 云服务器 采用专为AI推理打造的NVIDIA Tesla P4 GPU,能够提供超强的实时推理能力。Pi1型弹性 云服务 器借助P4的INT8运算器,能够将推理延时降低15倍。配备硬件解码引擎,能够同时支持35路高清视频流的实时转码与推理。
规格名称 | vCPU | 内存(GB) | 最大带宽/基准带宽(Gbps) | 最大收发包能力(万PPS) | 网卡多队列数 | GPU | 显存(GB) | 本地盘 | 虚拟化 类型 |
---|---|---|---|---|---|---|---|---|---|
pi1.2xlarge.4 | 8 | 32 | 5/1.6 | 40 | 2 | 1×P4 | 1×8GB | - | KVM |
pi1.4xlarge.4 | 16 | 64 | 8/3.2 | 70 | 4 | 2×P4 | 2×8GB | - | KVM |
pi1.8xlarge.4 | 32 | 128 | 10/6.5 | 140 | 8 | 4×P4 | 4×8GB | - | KVM |
Pi1型弹性云服务器功能如下:
支持NVIDIA Tesla P4 GPU卡,单实例最大支持4张P4 GPU卡
提供GPU硬件直通能力
单GPU单精度计算能力最高5.5 TFLOPS
单GPU INT8计算能力最高22 TOPS
单GPU提供8GB ECC显存,带宽192GB/s
GPU内置硬件视频编解码引擎,能够同时进行35路高清视频解码与实时推理
常规支持软件列表
Pi1实例主要用于GPU推理计算场景,例如图片识别、 语音识别 、 自然语言处理 等场景。
常用的软件支持列表如下:
Tensorflow、Caffe、PyTorch、MXNet等深度学习框架
推理加速型Pi2
Pi2型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。
规格名称 | vCPU | 内存(GB) | 最大带宽/基准带宽(Gbps) | 最大收发包能力(万PPS) | 网卡多队列数 | GPU | 显存(GB) | 本地盘 | 虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
pi2.2xlarge.4 | 8 | 32 | 10/4 | 50 | 4 | 1×T4 | 1×16GB | - | KVM |
pi2.4xlarge.4 | 16 | 64 | 15/8 | 100 | 8 | 2×T4 | 2×16GB | - | KVM |
pi2.8xlarge.4 | 32 | 128 | 25/15 | 200 | 16 | 4×T4 | 4×16GB | - | KVM |
Pi2型弹性云服务器功能如下:
支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡
提供GPU硬件直通能力
单GPU单精度计算能力最高8.1 TFLOPS
单GPU INT8计算能力最高130 TOPS
单GPU提供16GB GDDR6显存,带宽300GB/s
内置1个NVENC和2个NVDEC
常规支持软件列表
Pi2实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。
常用的软件支持列表如下:
Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。