华为云用户手册

  • AI加速型实例总览 AI推理加速增强I型Ai1s AI推理加速I型Ai1 表1 AI加速型实例特点 规格名称 计算 磁盘类型 网络 Ai1s CPU/内存配比:1:4/1:2 vCPU数量范围:2-32 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 高IO 通用型SSD 超高IO 极速型SSD 通用型SSD V2 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:200万PPS 最大内网带宽:25Gbps Ai1 CPU/内存配比:1:4 vCPU数量范围:2-32 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 Ai1s为Ai1的增强机型,区别在于Ai1s支持最新的昇腾软件栈CANN,建议首选Ai1s。
  • 实例生命周期 生命周期是指弹性云服务器从创建到删除(或释放)历经的各种状态。 表1 弹性云服务器状态说明 状态 状态属性 说明 创建中 中间状态 创建弹性云服务器实例后,在弹性云服务器状态进入运行中之前的状态。 正在开机 中间状态 弹性云服务器实例从关机到运行中的中间状态。 运行中 稳定状态 弹性云服务器实例正常运行状态。 在这个状态的实例可以运行您的业务。 正在关机 中间状态 弹性云服务器实例从运行中到关机的中间状态。 关机 稳定状态 弹性云服务器实例被正常停止。 在这个状态下的实例,不能对外提供业务。 重启中 中间状态 弹性云服务器实例正在进行重启操作。 更新规格中 中间状态 弹性云服务器实例接收变更请求,开始进行变更操作。 更新规格校验中 中间状态 弹性云服务器实例正在校验变更完成后的配置。 删除中 中间状态 弹性云服务器实例处于正在被删除的状态。 如果长时间处于该状态,则说明出现异常,需要联系技术支持处理。 已删除 中间状态 弹性云服务器实例已被正常删除。在该状态下的实例,不能对外提供业务,并在短时间内从系统中彻底清除。 故障 稳定状态 弹性云服务器实例处于异常状态。 在这个状态下的实例,不能对外提供业务,需要联系技术支持进行处理。 重装操作系统中 中间状态 弹性云服务器实例接收到重装操作系统请求,处于重装操作系统的过程中。 重装操作系统失败 稳定状态 弹性云服务器实例接收到重装操作系统请求,进行重装的过程中发生异常,导致重装失败。 在这个状态下的实例,不能对外提供业务,需要联系技术支持进行处理。 切换操作系统中 中间状态 弹性云服务器实例接收到切换操作系统请求,处于切换操作系统的过程中。 切换操作系统失败 稳定状态 弹性云服务器实例接收到切换操作系统请求,进行切换的过程中发生异常,导致切换失败。 在这个状态下的实例,不能对外提供业务,需要联系技术支持进行处理。 强制重启中 中间状态 弹性云服务器实例正在进行强制重启操作。 更新规格回退中 中间状态 弹性云服务器实例正在回退变更规格的配置。 冻结 稳定状态 云服务器实例订单到期或欠费,被系统管理员停止。 在这个状态下的实例,不能对外提供业务。系统保留一段时间后,如果未续费,将自动被删除。 锁定 中间状态/稳定状态 状态栏显示,表示云服务器被锁定,处于保护状态。此时,部分操作将会被禁用,具体请以界面提示为准。 您可以单击锁图标下方的超链接,查看加锁资源。 父主题: 实例
  • CPU隔离 X86架构为了保护指令的运行,提供了指令的4个不同特权级别,术语称为Ring,优先级从高到低依次为: Ring 0:被用于运行操作系统内核。 Ring 1:用于操作系统服务。 Ring 2:用于操作系统服务。 Ring 3:用于应用程序。 各个级别对可以运行的指令进行限制: Hypervisor运行在Ring0。 虚拟机操作系统运行在Ring 1,有效地防止了虚拟机Guest OS直接执行所有特权指令。 应用程序运行在Ring 3上,保证了操作系统与应用程序之间的隔离。 CPU硬件辅助虚拟化的引入进一步实现了Hypervisor和虚拟机操作系统运行模式的深度隔离。
  • 内存隔离 Hypervisor通过内存虚拟化技术来实现不同虚拟机之间的内存隔离。内存虚拟化技术在传统OS两层地址映射(“虚拟地址”到“机器地址”)的基础上,引入三层地址映射:虚拟机负责将“Guest虚拟地址”映射为“Guest物理地址”,然后Hypervisor负责将“虚拟机物理地址”映射成“机器地址”,再交由物理处理器来执行,保证了虚拟机无法直接接触实际的机器地址,只能访问Hypervisor分配给它的物理内存。
  • 超高I/O型 表9 I7n型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 本地盘 (GiB) 虚拟化类型 i7n.2xlarge.4 8 32 10/3.4 120 4 4 64 1 x 1600GiB NVMe KVM i7n.4xlarge.4 16 64 15/6.7 200 4 6 96 2 x 1600GiB NVMe KVM i7n.8xlarge.4 32 128 25/13.5 400 8 8 192 4 x 1600GiB NVMe KVM i7n.12xlarge.4 48 192 30/20 500 16 8 256 6 x 1600GiB NVMe KVM i7n.16xlarge.4 64 256 35/27 600 16 8 256 8 x 1600GiB NVMe KVM i7n.24xlarge.4 96 420 44/40 800 32 8 256 12 x 1600GiB NVMe KVM 表10 I3型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 本地盘 (GiB) 虚拟化类型 i3.2xlarge.4 8 32 15/4.5 150 4 4 1 x 1600GiB NVMe KVM i3.4xlarge.4 16 64 20/9 280 4 8 2 x 1600GiB NVMe KVM i3.8xlarge.4 32 128 30/18 550 16 8 4 x 1600GiB NVMe KVM i3.12xlarge.4 48 192 35/27 750 16 8 6 x 1600GiB NVMe KVM i3.16xlarge.4 64 256 40/36 1000 32 8 8 x 1600GiB NVMe KVM
  • GPU加速型 表11 Pi2型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 GPU 显存 (GiB) 虚拟化类型 pi2.2xlarge.4 8 32 10/4 50 4 4 1 × T4 1 × 16 KVM pi2.4xlarge.4 16 64 15/8 100 8 8 2 × T4 2 × 16 KVM pi2.8xlarge.4 32 128 25/15 200 16 8 4 × T4 4 × 16 KVM
  • 内存优化型 表6 M7n型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 虚拟化类型 m7n.large.8 2 16 4/0.8 40 2 2 16 KVM m7n.xlarge.8 4 32 8/1.6 80 2 3 32 KVM m7n.2xlarge.8 8 64 15/3 150 4 4 64 KVM m7n.3xlarge.8 12 96 17/5 200 4 6 96 KVM m7n.4xlarge.8 16 128 20/6 280 8 8 128 KVM m7n.6xlarge.8 24 192 25/9 400 8 8 192 KVM m7n.8xlarge.8 32 256 30/12 550 16 8 256 KVM m7n.12xlarge.8 48 384 35/18 750 16 8 256 KVM m7n.16xlarge.8 64 512 36/24 800 28 8 256 KVM m7n.24xlarge.8 96 768 40/36 850 32 8 256 KVM 表7 M6s型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 m6s.large.8 2 16 3/1 30 2 2 KVM m6s.xlarge.8 4 32 6/2 60 2 3 KVM m6s.2xlarge.8 8 64 12/4 120 4 4 KVM m6s.3xlarge.8 12 96 14/5.5 160 4 6 KVM m6s.4xlarge.8 16 128 16/7.5 220 8 8 KVM m6s.6xlarge.8 24 192 20/11 320 8 8 KVM m6s.8xlarge.8 32 256 25/15 450 16 8 KVM m6s.16xlarge.8 64 512 34/30 1000 32 8 KVM
  • 磁盘增强型 表8 D6型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 本地盘 (GiB) 虚拟化类型 d6.xlarge.4 4 16 5/2 60 2 3 2 × 3600 KVM d6.2xlarge.4 8 32 10/4 120 4 4 4 × 3600 KVM d6.4xlarge.4 16 64 20/7.5 240 8 8 8 × 3600 KVM d6.6xlarge.4 24 96 25/11 350 8 8 12 × 3600 KVM d6.8xlarge.4 32 128 30/15 450 16 8 16 × 3600 KVM d6.12xlarge.4 48 192 40/22 650 16 8 24 × 3600 KVM d6.16xlarge.4 64 256 42/30 850 32 8 32 × 3600 KVM d6.18xlarge.4 72 288 44/34 900 32 8 36 × 3600 KVM
  • 通用计算增强型 表3 C7n型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 虚拟化类型 c7n.large.2 2 4 4/0.8 40 2 2 16 KVM c7n.xlarge.2 4 8 8/1.6 80 2 3 32 KVM c7n.2xlarge.2 8 16 15/3 150 4 4 64 KVM c7n.3xlarge.2 12 24 17/5 200 4 6 96 KVM c7n.4xlarge.2 16 32 20/6 280 8 8 128 KVM c7n.6xlarge.2 24 48 25/9 400 8 8 196 KVM c7n.8xlarge.2 32 64 30/12 550 16 8 256 KVM c7n.12xlarge.2 48 96 35/18 750 16 8 256 KVM c7n.large.4 2 8 4/0.8 40 2 2 16 KVM c7n.xlarge.4 4 16 8/1.6 80 2 3 32 KVM c7n.2xlarge.4 8 32 15/3 150 4 4 64 KVM c7n.3xlarge.4 12 48 17/5 200 4 6 96 KVM c7n.4xlarge.4 16 64 20/6 280 8 8 128 KVM c7n.6xlarge.4 24 96 25/9 400 8 8 196 KVM c7n.8xlarge.4 32 128 30/12 550 16 8 256 KVM c7n.12xlarge.4 48 192 35/18 750 16 8 256 KVM c7n.16xlarge.4 64 256 36/24 800 28 8 256 KVM c7n.24xlarge.4 96 384 40/36 850 32 8 256 KVM c7n.xx.2规格类型的云服务器,仅在融合节点提供的算力中可供用户使用。 表4 C6s型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 c6s.large.2 2 4 1/1 30 2 2 KVM c6s.large.4 2 8 1/1 30 2 2 KVM c6s.xlarge.2 4 8 2/2 60 2 3 KVM c6s.xlarge.4 4 16 2/2 60 2 3 KVM c6s.2xlarge.2 8 16 4/4 120 4 4 KVM c6s.2xlarge.4 8 32 4/4 120 4 4 KVM c6s.3xlarge.2 12 24 5.5/5.5 180 4 6 KVM c6s.3xlarge.4 12 48 5.5/5.5 180 4 6 KVM c6s.4xlarge.2 16 32 7.5/7.5 240 8 8 KVM c6s.4xlarge.4 16 64 7.5/7.5 240 8 8 KVM c6s.6xlarge.2 24 48 11/11 350 8 8 KVM c6s.6xlarge.4 24 48 11/11 350 8 8 KVM c6s.8xlarge.2 32 64 15/15 450 16 8 KVM c6s.8xlarge.4 32 128 15/15 450 16 8 KVM c6s.12xlarge.2 48 96 22/22 650 16 8 KVM c6s.12xlarge.4 48 192 22/22 650 16 8 KVM c6s.16xlarge.2 64 128 30/30 850 32 8 KVM c6s.16xlarge.4 64 256 30/30 850 32 8 KVM 表5 C6sne型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 c6sne.large.2 2 4 1/1 30 2 2 KVM c6sne.large.4 2 8 1/1 30 2 2 KVM c6sne.xlarge.2 4 8 2/2 60 2 3 KVM c6sne.xlarge.4 4 16 2/2 60 2 3 KVM c6sne.2xlarge.2 8 16 4/4 120 4 4 KVM c6sne.2xlarge.4 8 32 4/4 120 4 4 KVM c6sne.3xlarge.2 12 24 5.5/5.5 180 4 6 KVM c6sne.3xlarge.4 12 48 5.5/5.5 180 4 6 KVM c6sne.4xlarge.2 16 32 7.5/7.5 240 8 8 KVM c6sne.4xlarge.4 16 64 7.5/7.5 240 8 8 KVM c6sne.6xlarge.2 24 48 11/11 350 8 8 KVM c6sne.6xlarge.4 24 48 11/11 350 8 8 KVM c6sne.8xlarge.2 32 64 15/15 450 16 8 KVM c6sne.8xlarge.4 32 128 15/15 450 16 8 KVM c6sne.12xlarge.2 48 96 22/22 650 16 8 KVM c6sne.12xlarge.4 48 192 22/22 650 16 8 KVM c6sne.16xlarge.2 64 128 30/30 850 32 8 KVM c6sne.16xlarge.4 64 256 30/30 850 32 8 KVM
  • 通用计算型 表1 S7n型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 虚拟化类型 s7n.large.2 2 4 1.5/0.2 15 1 2 8 KVM s7n.xlarge.2 4 8 2/0.35 25 1 2 16 KVM s7n.2xlarge.2 8 16 3/0.75 50 2 2 32 KVM s7n.4xlarge.2 16 32 6/1.5 100 4 2 32 KVM s7n.medium.4 1 4 0.8/0.1 10 1 2 4 KVM s7n.large.4 2 8 1.5/0.2 15 1 2 8 KVM s7n.xlarge.4 4 16 2/0.35 25 1 2 16 KVM s7n.2xlarge.4 8 32 3/0.75 50 2 2 32 KVM s7n.4xlarge.4 16 64 6/1.5 100 4 2 64 KVM 表2 S6型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 s6.small.1 1 1 0.8/0.1 10 1 2 KVM s6.medium.2 1 2 0.8/0.1 10 1 2 KVM s6.large.2 2 4 1.5/0.2 15 1 2 KVM s6.xlarge.2 4 8 2/0.35 25 1 2 KVM s6.2xlarge.2 8 16 3/0.75 50 2 2 KVM s6.medium.4 1 4 0.8/0.1 10 1 2 KVM s6.large.4 2 8 1.5/0.2 15 1 2 KVM s6.xlarge.4 4 16 2/0.35 25 1 2 KVM s6.2xlarge.4 8 32 3/0.75 50 2 2 KVM
  • 关于密钥 加密所需的密钥依赖于 数据加密 服务(DEW,Data Encryption Workshop)。DEW通过数据加密密钥(Data Encryption Key,DEK),对具体资源进行加密,然后通过用户主密钥(Customer Master Key,CMK)对DEK进行加密,保护DEK,如图1所示。 图1 数据加密过程 数据加密过程中涉及的几种密钥,如表1所示。 表1 密钥说明 名称 概念 功能 数据加密密钥 即DEK,是用户加密数据的加密密钥。 加密具体资源。 自定义密钥 是用户通过DEW创建的密钥,是一种密钥加密密钥,主要用于加密并保护DEK。 一个自定义密钥可以加密多个DEK。 支持禁用、计划删除等操作。 默认密钥 属于用户主密钥,是用户第一次通过对应云服务使用DEW加密时,系统自动生成的,其名称后缀为“/default”。 例如:evs/default 支持通过管理控制台DEW页面查询默认密钥详情。 不支持禁用、计划删除等操作。 如果加密云硬盘使用的CMK被执行禁用或计划删除操作,操作生效后,使用该CMK加密的云硬盘仍然可以正常使用,但是,当该云硬盘被卸载并重新挂载至弹性云服务器时,由于无法正常获取密钥,会导致挂载失败,云硬盘不可用。 关于密钥管理的更多信息,请参见《数据加密服务用户指南》。
  • 虚拟私有云 虚拟私有云(Virtual Private Cloud,以下简称VPC)为弹性云服务器构建了一个逻辑上完全隔离的专有区域,您可以在自己的逻辑隔离区域中定义虚拟网络,为弹性云服务器构建一个逻辑上完全隔离的专有区域。您还可以在VPC中定义安全组、VPN、IP地址段、带宽等网络特性,方便管理、配置内部网络,进行安全、快捷的网络变更。同时,您可以自定义安全组内与组间弹性云服务器的访问规则,加强弹性云服务器的安全保护。 虚拟私有云更多信息,请参见《虚拟私有云用户指南》。
  • 安全组 安全组是一个逻辑上的分组,为具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。安全组创建后,用户可以在安全组中定义各种访问规则,当弹性云服务器加入该安全组后,即受到这些访问规则的保护。 系统会为每个用户默认创建一个默认安全组,默认安全组的规则是在出方向上的数据报文全部放行,入方向访问受限,安全组内的弹性云服务器无需添加规则即可互相访问。 图2 默认安全组 默认安全组规则如表1所示: 表1 默认安全组规则 规则方向 策略 类型 协议端口 源地址/目的地址 描述 入方向规则 允许 IPv4 全部 源地址:默认安全组(default) 针对全部IPv4协议,允许本安全组内实例的请求进入,即该条规则确保安全组内的实例网络互通。 入方向规则 允许 IPv6 全部 源地址:默认安全组(default) 针对全部IPv6协议,允许本安全组内实例的请求进入,即该条规则确保安全组内的实例网络互通。 出方向规则 允许 IPv4 全部 目的地址:0.0.0.0/0 针对全部IPv4协议,允许安全组内的实例可访问外部IP的所有端口。 出方向规则 允许 IPv6 全部 目的地址:::/0 针对全部IPv6协议,允许安全组内的实例可访问外部IP的所有端口。
  • 推理加速型Pi1 概述 Pi1型弹性云服务器采用专为AI推理打造的NVIDIA Tesla P4 GPU,能够提供超强的实时推理能力。Pi1型弹性云服务器借助P4的INT8运算器,能够将推理延时降低15倍。配备硬件解码引擎,能够同时支持35路高清视频流的实时转码与推理。 规格 表13 Pi1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU 显存 (GiB) 本地盘 虚拟化类型 pi1.2xlarge.4 8 32 5/1.6 40 2 1 × P4 1 × 8GiB - KVM pi1.4xlarge.4 16 64 8/3.2 70 4 2 × P4 2 × 8GiB - KVM pi1.8xlarge.4 32 128 10/6.5 140 8 4 × P4 4 × 8GiB - KVM Pi1型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2697 v4,主频2.3GHz,睿频3.5GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla P4 GPU卡,单实例最大支持4张P4 GPU卡。 提供GPU硬件直通能力。 单GPU单精度计算能力最高5.5 TFLOPS。 单GPU INT8计算能力最高22 TOPS。 单GPU提供8GiB ECC显存,带宽192GiB/s。 GPU内置硬件视频编解码引擎,能够同时进行35路高清视频解码与实时推理。 常规支持软件列表 Pi1实例主要用于GPU推理计算场景,例如图片识别、 语音识别 自然语言处理 等场景。 常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等深度学习框架 使用须知 规格为pi1.2xlarge.4、pi1.4xlarge.4、pi1.8xlarge.4的Pi1型云服务器,在按需付费的模式下,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法(“包年/包月”或“按需付费”)进行收费。具体请参见产品价格详情。 规格为pi1.2xlarge.4、pi1.4xlarge.4、pi1.8xlarge.4的Pi1型云服务器,在按需付费的模式下,关机后会释放资源,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 Pi1型弹性云服务器不支持规格变更。 Pi1型弹性云服务器当前支持如下版本的操作系统: Windows Server 2019 Standard 64bit Windows Server 2016 Standard 64bit CentOS 7.3 64bit Ubuntu Server 16.04 64bit Ubuntu Server 14.04 64bit Pi1型云服务器,所在物理机发生故障时,云服务器支持自动恢复。 使用公共镜像创建的Pi1型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的Pi1型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。
  • 计算加速型P1 概述 P1型弹性云服务器采用NVIDIA Tesla P100 GPU,在提供云服务器灵活性的同时,提供优质性能体验和优良的性价比。P1型弹性云服务器支持GPU Direct技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,在深度学习、图形数据库、高性能数据库、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势,适用于科学计算等。 规格 表11 P1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 GPU 显存 (GiB) 本地盘 (GiB) 虚拟化类型 p1.2xlarge.8 8 64 5/1.6 35 2 1 × P100 1 × 16 1 × 800 KVM p1.4xlarge.8 16 128 8/3.2 70 4 2 × P100 2 × 16 2 × 800 KVM p1.8xlarge.8 32 256 10/6.5 140 8 4 × P100 4 × 16 4 × 800 KVM P1型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2690 v4,主频2.6GHz,睿频3.5GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla P100 GPU卡,单实例最大支持4张P100显卡,如果需要使用单机8张P100显卡,可以使用裸金属服务器。 提供GPU硬件直通能力。 单精度能力9.3 TFLOPS,双精度能力4.7 TFLOPS。 最大网络带宽10Gb/s。 使用16GiB HBM2显存,显存带宽732Gb/s。 使用800GiB的NVMe SSD卡作为本地临时存储。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P1型云服务器可以做到分钟级快速发放。用户可以根据业务规模灵活选择规格,后续将逐步支持1:2、1:4、1:8规格云服务器的创建。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P1实例上。 常规支持软件列表 P1型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P1型云服务器。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max Agisoft PhotoScan MapD 使用须知 P1型云服务器的系统盘大小建议大于40GiB。 P1型云服务器包含NVMe SSD本地盘,关机后仍然收费,如果停止计费,需删除弹性云服务器。 P1型 云服务器配置 了NVMe SSD本地盘,专为深度学习训练、HPC高性能计算等对存储I/O性能有极高要求的业务场景设计。本地盘与特定规格的云服务器绑定,不可单独购买,不可卸载并挂载到另一台云服务器上使用。 P1型云服务器配置的NVMe SSD本地盘有丢失数据的风险(比如NVMe SSD故障或宿主机故障时),强烈建议您在本地NVMe SSD磁盘中存放临时数据,如需存放重要数据,请做好数据备份。 P1型弹性云服务器不支持规格变更。 P1型弹性云服务器不支持自动恢复功能: 部分宿主机硬件故障或亚健康等场景,需要用户配合关闭E CS 完成宿主机硬件维修动作。 因系统维护或硬件故障等,HA重新部署ECS实例后,实例会冷迁移到其他宿主机,本地盘数据不保留。 P1型弹性云服务器当前支持如下版本的操作系统: Windows Server 2019 Standard 64bit Windows Server 2016 Standard 64bit Debian 8.0 64bit CentOS 7.3 64bit Ubuntu Server 16.04 64bit EulerOS 2.2 64bit 删除P1型弹性云服务器后,本地NVMe SSD磁盘的数据会被自动清除。 使用公共镜像创建的P1型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P1型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。
  • 推理加速型Pi2 概述 Pi2型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。 规格 表12 Pi2型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 GPU 显存 (GiB) 本地盘 虚拟化类型 pi2.2xlarge.4 8 32 10/4 50 4 4 1 × T4 1 × 16 - KVM pi2.4xlarge.4 16 64 15/8 100 8 8 2 × T4 2 × 16 - KVM pi2.8xlarge.4 32 128 25/15 200 16 8 4 × T4 4 × 16 - KVM Pi2型弹性云服务器功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡。 提供GPU硬件直通能力。 单GPU单精度计算能力最高8.1 TFLOPS。 单GPU INT8计算能力最高130 TOPS。 单GPU提供16GiB GDDR6显存,带宽320GiB/s。 内置1个NVENC和2个NVDEC。 常规支持软件列表 Pi2实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。 常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。 使用须知 规格为pi2.2xlarge.4、pi2.4xlarge.4、pi2.8xlarge.4的Pi2型云服务器,在按需付费的模式下,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法(“包年/包月”或“按需付费”)进行收费。具体请参见产品价格详情。 规格为pi2.2xlarge.4、pi2.4xlarge.4、pi2.8xlarge.4的Pi2型云服务器,在按需付费的模式下,关机后会释放资源,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 Pi2型弹性云服务器当前支持如下版本的操作系统: Windows Server 2019 Standard 64bit Windows Server 2016 Standard 64bit CentOS 7.5 64bit Pi2型云服务器,所在物理机发生故障时,云服务器支持自动恢复。 使用公共镜像创建的Pi2型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的Pi2型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。
  • 计算加速型P2s 概述 P2s型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2s型弹性云服务器能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格 表9 P2s型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 GPU GPU连接技术 显存(GiB) 虚拟化类型 p2s.2xlarge.8 8 64 10/4 50 4 4 1 × V100 PCIe Gen3 1 × 32GiB KVM p2s.4xlarge.8 16 128 15/8 100 8 8 2 × V100 PCIe Gen3 2 × 32GiB KVM p2s.8xlarge.8 32 256 25/15 200 16 8 4 × V100 PCIe Gen3 4 × 32GiB KVM p2s.16xlarge.8 64 512 30/30 400 32 8 8 × V100 PCIe Gen3 8 × 32GiB KVM P2s型弹性云服务器功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力14 TFLOPS,双精度能力7 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到112 TFLOPS。 单实例最大网络带宽30Gb/s。 使用32GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P2s型云服务器可以做到分钟级快速发放。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2s实例上。 常规软件支持列表 P2s型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2s型云服务器。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD 使用须知 P2s型云服务器当前支持如下版本的操作系统: Windows Server 2019 Standard 64bit Windows Server 2016 Standard 64bit CentOS 8.2 64bit CentOS 7.6 64bit Ubuntu Server 20.04 64bit Ubuntu Server 18.04 使用公共镜像创建的P2s型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P2s型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。
  • 计算加速型P2v 概述 P2v型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2v型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格 表10 P2v型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 GPU GPU连接技术 显存 (GiB) 虚拟化类型 p2v.2xlarge.8 8 64 10/4 50 4 4 1 × V100 - 1 × 16GiB KVM p2v.4xlarge.8 16 128 15/8 100 8 8 2 × V100 NVLink 2 × 16GiB KVM p2v.8xlarge.8 32 256 25/15 200 16 8 4 × V100 NVLink 4 × 16GiB KVM p2v.16xlarge.8 64 512 30/30 400 32 8 8 × V100 NVLink 8 × 16GiB KVM P2v型弹性云服务器功能如下: 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。 单实例最大网络带宽30Gb/s。 使用16GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P2v型云服务器可以做到分钟级快速发放。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2v实例上。 常规软件支持列表 P2v型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2v型云服务器。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD 使用须知 P2v型云服务器当前支持如下版本的操作系统: Windows Server 2019 Standard 64bit Windows Server 2016 Standard 64bit Ubuntu Server 16.04 64bit CentOS 7.4 64bit EulerOS 2.2 64bit 使用公共镜像创建的P2v型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P2v型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。
  • 计算加速型P2vs 概述 P2vs型弹性云服务器采用NVIDIA Tesla V100 GPU (32G显存),在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2vs型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格 表8 P2vs型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU GPU连接技术 显存 (GiB) 虚拟化类型 p2vs.2xlarge.8 8 64 10/4 50 4 1 × V100 - 1 × 32GiB KVM p2vs.4xlarge.8 16 128 15/8 100 8 2 × V100 NVLink 2 × 32GiB KVM p2vs.8xlarge.8 32 256 25/15 200 16 4 × V100 NVLink 4 × 32GiB KVM p2vs.16xlarge.8 64 512 30/30 400 32 8 × V100 NVLink 8 × 32GiB KVM P2vs型弹性云服务器功能如下: 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。 单实例最大网络带宽30Gb/s。 使用32GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P2vs型云服务器可以做到分钟级快速发放。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2vs实例上。 常规软件支持列表 P2vs型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2vs型云服务器。 常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD 使用须知 P2vs型按需云服务器当前支持如下版本的操作系统: Windows Server 2016 Standard 64bit Ubuntu Server 16.04 64bit CentOS 7.5 64bit 使用公共镜像创建的P2vs型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P2vs型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。
  • 图形加速型G1 概述 G1型弹性云服务器基于NVIDIA GRID虚拟GPU技术,提供较为经济的图形加速能力。同时,G1型弹性云服务器使用NVIDIA Tesla M60 GPU卡,能够支持DirectX、OpenGL,可以提供最大显存8GiB、分辨率为4096×2160的图形图像处理能力,适用于图形渲染要求较高的应用。 规格 表7 G1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 最大收发包能力 GPU 显存 (GiB) 虚拟化类型 g1.xlarge 4 8 中 中 1 × M60-1Q 1 XEN g1.xlarge.4 4 16 中 中 1 × M60-1Q 1 XEN g1.2xlarge 8 16 中 中 1 × M60-2Q 2 XEN g1.2xlarge.8 8 64 中 中 直通 8 XEN g1.4xlarge 16 32 中 中 1 × M60-4Q 4 XEN M60-xQ使用GPU虚拟化能力,x为1/2/4/8,表示云服务器使用GRID技术将M60 GPU虚拟为不同规格和型号的vGPU, x对应于vGPU的显存大小,Q表示该类型的vGPU主要适用于工作站和桌面场景。更多关于GRID虚拟GPU的介绍,请参见NVIDIA官方文档。 G1型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2690 v4,主频2.6GHz,睿频3.5GHz。 支持NVIDIA M60 GPU卡。 支持图形加速应用。 提供GPU硬件虚拟化(vGPU)和GPU直通能力。 自动化的调度G1型弹性云服务器到装有NVIDIA M60 GPU卡的可用区。 可以提供最大显存8GiB,分辨率为4096×2160的图形图像处理能力。 使用须知 G1型弹性云服务器不支持规格变更。 G1型弹性云服务器当前支持如下版本的操作系统: Windows Server 2016 Standard 64bit 规格为g1.2xlarge.8的弹性云服务器,不支持使用云平台提供的“远程登录”功能。请先使用MSTSC方式登录,然后自行安装VNC工具进行登录。 对于非g1.2xlarge.8的G1型弹性云服务器,支持使用云平台提供的“远程登录”功能,具体操作请参见远程登录(VNC方式)。 使用公共镜像创建的G1型弹性云服务器默认已安装特定版本的GRID驱动。 使用私有镜像创建的G1型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。详细安装操作请参考安装GRID驱动。
  • 图形加速增强型G3 概述 G3型弹性云服务器基于PCI直通技术,独享整张GPU卡,提供专业级的图形加速能力。同时,G3型弹性云服务器使用NVIDIA Tesla M60 GPU卡,能够支持DirectX、OpenGL接口,可以提供最大显存16GiB,支持最大4096 × 2160分辨率,是专业级图形工作站的首选。 规格 表6 G3型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU 显存 (GiB) 虚拟化类型 g3.4xlarge.4 16 64 8/2.5 50 2 1 × M60核心 1×8 KVM g3.8xlarge.4 32 128 10/5 100 4 2 × M60核心 2×8 KVM NVIDIA Tesla M60板卡包含两颗M60 GPU,每颗M60 GPU包含2048 CUDA 核心和8GiB显存。G系列云服务器所指的M60一般指的是M60 GPU, 而不是M60板卡。 G3型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2697 v4,主频2.3GHz,睿频3.5GHz。 支持专业级图形加速接口。 支持NVIDIA M60 GPU卡。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持图形加速应用。 提供GPU直通的能力。 自动化的调度G3型弹性云服务器到装有NVIDIA M60 GPU卡的可用区。 可以提供最大显存16GiB,分辨率为4096×2160的图形图像处理能力。 使用须知 G3型弹性云服务器当前支持如下版本的操作系统: Windows Server 2019 Standard 64bit Windows Server 2016 Standard 64bit G3型Windows操作系统云服务器启动时默认加载了GRID驱动,使用vGPU显卡作为默认视频输出,暂不支持使用管理控制台提供的“远程登录”功能。请使用RDP协议(如Windows远程桌面MSTSC)访问G3型实例,之后安装远程访问工具,如VNC工具等第三方VDI工具。 使用公共镜像创建的G3型弹性云服务器默认已安装特定版本的GRID驱动。 使用私有镜像创建的G3型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。详细安装操作请参考安装GRID驱动。
  • 图形加速增强型G5 概述 G5型弹性云服务器使用NVIDIA Tesla V100 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供16GiB显存规格,支持最大4096 × 2160分辨率,满足专业级的图形处理需求。 请选择您所需要的类型和规格。 规格 表5 G5型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU 显存 (GiB) 虚拟化类型 g5.8xlarge.4 32 128 25/15 200 16 1 × V100 16 KVM g5.8xlarge.4弹性云服务器独享一张V100显卡,支持专业图形加速,同样适用于CPU重载推理场景。 G5型弹性云服务器功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持图形加速接口: DirectX 12、Direct2D、DirectX Video Acceleration (DXVA) OpenGL 4.5 Vulkan 1.0 支持CUDA和OpenCL。 支持NVIDIA V100 GPU卡。 支持图形加速应用。 支持CPU重载推理应用。 自动化的调度G5型弹性云服务器到装有NVIDIA V100 GPU卡的可用区。 可以提供最大显存16GiB,分辨率为4096×2160的图形图像处理能力。 常规支持软件列表 G5型弹性云服务器主要用于图形加速场景,例如图像渲染、 云桌面 、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G5型云服务器。常用的图形处理软件支持列表如下: AutoCAD 3DS MAX MAYA Agisoft PhotoScan ContextCapture 瞰景科技Smart3D实景三维建模软件 使用须知 G5型弹性云服务器当前支持如下版本的操作系统: Windows Server 2019 Standard 64bit Windows Server 2016 Standard 64bit CentOS 8.2 64bit CentOS 7.6 64bit CentOS 7.5 64bit Ubuntu Server 20.04 64bit Ubuntu Server 18.04 64bit G5型弹性云服务器,需在弹性云服务器创建完成后配置GRID License使用。 使用公共镜像创建的G5型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。 配置GRID License步骤请参考GPU加速型实例安装GRID驱动。 使用私有镜像创建的G5型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。 详细安装操作请参考GPU加速型实例安装GRID驱动。
  • 图形加速增强型G6 概述 G6型弹性云服务器使用NVIDIA Tesla T4 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供16GiB显存,理论性能Pixel Rate:101.8GPixel/s,Texture Rate:254.4GTexel/s,满足专业级的图形处理需求。 请按需选择您所需要的类型和规格。 规格 表4 G6型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 GPU 显存 (GiB) 虚拟化类型 g6.xlarge.4 4 16 6/2 200 8 8 1 × T4 16 KVM g6.4xlarge.4 16 64 15/8 200 8 8 1 × T4 16 KVM g6.6xlarge.4 24 96 25/15 200 8 8 1 × T4 16 KVM g6.9xlarge.7 36 252 25/15 200 16 8 1 × T4 16 KVM g6.18xlarge.7 72 504 30/30 400 32 16 2 × T4 32 KVM G6型弹性云服务器功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6266,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持图形加速接口: DirectX 12、Direct2D、DirectX Video Acceleration (DXVA) OpenGL 4.5 Vulkan 1.0 支持CUDA和OpenCL。 支持NVIDIA T4 GPU卡。 支持图形加速应用。 支持CPU重载推理应用。 自动化的调度G6型弹性云服务器到装有NVIDIA T4 GPU卡的可用区。 内置1个NVENC和2个NVDEC。 常规支持软件列表 G6型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G6型云服务器。常用的图形处理软件支持列表如下: AutoCAD 3DS MAX MAYA Agisoft PhotoScan ContextCapture 使用须知 G6型弹性云服务器当前支持如下版本的操作系统: Windows Server 2019 标准版 64bit Windows Server 2016 标准版 64bit Windows Server 2019 数据中心版 64bit Windows Server 2016 数据中心版 64bit CentOS 8.2 64bit CentOS 8.1 64bit CentOS 8.0 64bit CentOS 7.9 64bit CentOS 7.8 64bit CentOS 7.7 64bit CentOS 7.6 64bit CentOS 7.5 64bit Ubuntu Server 22.04 64bit Ubuntu Server 20.04 64bit Ubuntu Server 18.04 64bit Ubuntu Server 16.04 64bit Huawei Cloud EulerOS 2.0 64bit for GPU 使用公共镜像创建的G6型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。 配置GRID License步骤请参考GPU加速型实例安装GRID驱动。 使用私有镜像创建的G6型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。 详细安装操作请参考GPU加速型实例安装GRID驱动。
  • 适用于GPU加速实例的镜像列表 表2 适用于GPU加速实例的镜像列表 类别 实例 支持镜像 图形加速型 G6v Windows Server 2016 Standard 64bit 图形加速型 G6 Windows Server 2016 Standard 64bit 图形加速型 G5 Windows Server 2016 Standard 64bit Windows Server 2012 R2 Standard 64bit CentOS 7.5 64bit 图形加速型 G3 Windows Server 2012 R2 Standard 64bit Windows Server 2008 R2 Enterprise 图形加速型 G1 Windows Server 2012 R2 Standard 64bit Windows Server 2008 R2 Enterprise 计算加速型 P2vs Windows Server 2016 Standard 64bit Ubuntu 16.04 64bit CentOS 7.5 64bit 计算加速型 P2s Windows Server 2016 Standard 64bit Windows Server 2012 R2 Standard 64bit Ubuntu Server 16.04 64bit CentOS 7.7 64bit CentOS 7.4 64bit 计算加速型 P2v Windows Server 2016 Standard 64bit Windows Server 2012 R2 Standard 64bit Ubuntu 16.04 64bit CentOS 7.4 64bit EulerOS 2.2 64bit 计算加速型 P1 Windows Server 2012 R2 Standard 64bit Ubuntu 16.04 64bit CentOS 7.3 64bit EulerOS 2.2 64bit Debian 8.0.0 64bit 推理加速型 Pi2 Windows Server 2016 Standard 64bit Ubuntu 16.04 64bit CentOS 7.5 64bit 推理加速型 Pi1 Ubuntu 16.04 64bit Ubuntu 14.04 64bit CentOS 7.3 64bit
  • 图形加速增强型G6v 概述 G6v型弹性云服务器使用NVIDIA Tesla T4 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供8GiB显存,理论性能Pixel Rate:101.8GPixel/s,Texture Rate:254.4GTexel/s,满足专业级的图形处理需求。支持GPU虚拟化功能,支持1/2 T4和1/4 T4卡。 请按需选择您所需要的类型和规格。 规格 表3 G6v型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU 显存 (GiB) 虚拟化类型 g6v.2xlarge.2 8 16 6/2 35 4 1/8 × T4 2 KVM g6v.2xlarge.4 8 32 10/4 50 4 1/4 × T4 4 KVM g6v.4xlarge.4 16 64 15/8 100 8 1/2 × T4 8 KVM G6v型弹性云服务器功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6266,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持图形加速接口: DirectX 12、Direct2D、DirectX Video Acceleration (DXVA) OpenGL 4.5 Vulkan 1.0 支持CUDA和OpenCL。 支持NVIDIA T4 GPU卡,显存为16 GB。 实例可虚拟化分片: 计算性能为NVIDIA Tesla T4的1/8、1/4和1/2 显存为2 GB、4 GB和8 GB 支持图形加速应用。 支持CPU重载推理应用。 自动化的调度G6型弹性云服务器到装有NVIDIA T4 GPU卡的可用区。 内置1个NVENC和2个NVDEC。 常规支持软件列表 G6v型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、云游戏、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G6v型云服务器。常用的图形处理软件支持列表如下: AutoCAD 3DS MAX MAYA Agisoft PhotoScan ContextCapture 使用须知 G6v型弹性云服务器当前支持如下版本的操作系统: Windows Server 2019 Standard 64bit Windows Server 2016 Standard 64bit CentOS 8.2 64bit CentOS 7.6 64bit Ubuntu Server 20.04 64bit Ubuntu Server 18.04 64bit 使用公共镜像创建的G6v型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。配置GRID License步骤请参考GPU加速型实例安装GRID驱动。 使用私有镜像创建的G6v型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。 详细安装操作请参考GPU加速型实例安装GRID驱动。
  • GPU加速实例总览 主售:计算加速型P2s、推理加速型Pi2、图形加速增强型G6 在售:除主售外的其他GPU机型均为在售机型,如果在售机型售罄,推荐使用主售机型 图像加速G系列 图形加速增强型G6v 图形加速增强型G6 图形加速增强型G5 图形加速增强型G3 图形加速型G1 计算加速P系列 计算加速型P2vs 计算加速型P2s(主售) 计算加速型P2v 计算加速型P1 推理加速型Pi2(主售) 推理加速型Pi1 相关操作链接: 适用于GPU加速实例的镜像列表 GPU加速型实例安装GRID驱动 GPU加速型实例安装NVIDIA GPU驱动及CUDA工具包 表1 GPU加速实例总览 类别 实例 GPU显卡 单卡Cuda Core数量 单卡GPU性能 使用场景 备注 图形加速型 G6v NVIDIA T4(vGPU虚拟化) 2560 8.1TFLOPS 单精度浮点计算 130INT8 TOPS 260INT4 TOPS 云桌面、图像渲染、3D可视化、重载图形设计。 无法通过云服务器控制台“远程登录”,请使用VNC或第三方VDI协议。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 图形加速型 G6 NVIDIA T4(GPU直通) 2560 8.1TFLOPS 单精度浮点计算 130INT8 TOPS 260INT4 TOPS 云桌面、图像渲染、3D可视化、重载图形设计。 无法通过云服务器控制台“远程登录”,请使用VNC或第三方VDI协议。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 图形加速型 G5 NVIDIA V100(GPU直通) 5120 14TFLOPS 单精度浮点计算 7TFLOPS 双精度浮点计算 112TFLOPS Tensor Core 深度学习加速 云桌面、图像渲染、3D可视化、重载图形设计。 无法通过云服务器控制台“远程登录”,请使用VNC或第三方VDI协议。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 图形加速型 G3 NVIDIA M60(GPU直通) 2048 4.8TFLOPS单精度浮点计算 云桌面、图像渲染、3D可视化、重载图形设计。 无法通过云服务器控制台“远程登录”,请使用VNC或第三方VDI协议 图形加速型 G1 NVIDIA M60(GPU虚拟化) 2048 4.8TFLOPS单精度浮点计算 云桌面、图像渲染、3D可视化、重载图形设计。 G1实例中g1.2xlarge.8规格使用的是GPU直通,无法通过云服务器控制台“远程登录”,请使用VNC或第三方VDI协议 计算加速型 P2vs NVIDIA V100 NVLink (GPU直通) 5120 15.7TFLOPS 单精度浮点计算 7.8TFLOPS 双精度浮点计算 125TFLOPS Tensor Core 深度学习加速 300GiB/s NVLINK 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 计算加速型 P2s NVIDIA V100 5120 14TFLOPS 单精度浮点计算 7TFLOPS 双精度浮点计算 112TFLOPS Tensor Core 深度学习加速 AI深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 计算加速型 P2v NVIDIA V100 NVLink(GPU直通) 5120 15.7TFLOPS 单精度浮点计算 7.8TFLOPS 双精度浮点计算 125TFLOPS Tensor Core 深度学习加速 300GiB/s NVLINK 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 计算加速型 P1 NVIDIA P100(GPU直通) 2584 9.3 TFLOPS 单精度浮点计算 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 配备本地NVMe SSD磁盘,按需购买关机收费。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 推理加速型 Pi2 NVIDIA T4(GPU直通) 2560 8.1TFLOPS 单精度浮点计算 130INT8 TOPS 260INT4 TOPS 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 推理加速型 Pi1 NVIDIA P4(GPU直通) 2560 5.5TFLOPS 单精度浮点计算 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 控制台的远程登录方式可以作为运维处理的平台,但不能作为生产环境使用。使用控制台的远程登录方式无法使用物理GPU能力。 在不支持远程登录的情况下,可以使用Windows远程桌面mstsc,或者第三方桌面协议。如VNC工具。
  • 什么是CPU积分 CPU积分是一种用来衡量云服务器计算、存储以及网络配置利用率的方式。云服务器利用CPU积分机制保证云服务器基准性能,解决超分云服务器长期占用CPU资源的问题。 使用CPU积分机制的弹性云服务器适用于平时CPU负载不高、但突发时可接受因积分不足,而导致云服务器性能无法超过基准性能的场景。 当前通用入门型弹性云服务器使用积分机制(不额外进行计费),了解更多通用入门型云服务器规格请参考通用入门型。
  • 相关概念 表1 CPU积分相关概念(以T6云服务器为例) 概念 说明 示例 初始积分 1台t6云服务器在创建成功后,会分到云平台分配的CPU积分,即初始CPU积分。初始CPU积分仅在创建时分配。 以t6.large.1为例,云服务器创建成功后,会分配60个CPU积分。 最大积分 当分配积分大于消耗积分时,CPU积分会越来越多。获得的积分在运行的云服务器上不会过期,但每个云服务器可累积获取的积分数存在上限,即CPU积分累积上限。不同的云服务器规格,上限不同。 以t6.large.1为例,最大CPU积分余额为576。当CPU积分达到576,CPU积分暂停累积,少于576时,重新开始累积。 CPU积分/小时 每小时云服务器获取的CPU积分,与基准CPU计算性能对应。 1个vCPU计算性能100%时,运行1分钟 ,消耗1个积分。 以t6.large.1为例,CPU积分/小时为24,代表CPU积分分配速度为每小时24个CPU积分。 基准CPU计算性能(%) 当云服务器以基准CPU计算性能运行时,每分钟的消耗积分等于云平台分配的CPU积分。 以t6.large.1为例,基准CPU计算性能为40%,即实际计算性能为40%时,每分钟的消耗积分等于分配积分。 平均基准CPU计算性能(%) 当云服务器以基准CPU计算性能运行时,每个vCPU的计算性能为平均基准CPU计算性能。计算公式如下: 平均基准CPU计算性能 = 基准CPU计算性能 ÷ vCPU个数 以t6.large.1为例,基准CPU计算性能为40%,vCPU为2,平均基准CPU计算性能为20%。 消耗积分 云服务器运行后,就会开始消耗积分以满足需求。 1个积分可以提供1个vCPU在计算性能100%时运行1分钟 。 因此每分钟CPU积分的消耗积分计算公式如下: 每分钟消耗的CPU积分 = 1个CPU积分 x 实际CPU计算性能 以t6.large.1为例,实际计算性能为20%运行1分钟时,会消耗0.2个CPU积分。 累积积分 实际CPU计算性能低于基准CPU计算性能时,即每分钟的消耗积分小于云平台分配的CPU积分,剩余积分累加,即为累积积分(累积积分达到最大积分后,停止累积)。 实际CPU计算性能高于基准CPU计算性能时,即每分钟的消耗积分大于云平台分配的CPU积分,此时会消耗累积积分来提升CPU性能(优先使用初始CPU积分),满足工作需求。 每分钟累积积分计算公式如下: 每分钟累计的CPU积分 = 1个CPU积分 x (基准CPU计算性能 - 实际CPU计算性能) 以t6.large.1为例,基准CPU计算性能为40%,当云服务器实际计算性能为10%时,1分钟可以累积0.3个CPU积分。
  • 工作原理 当您购买使用CPU积分机制的弹性云服务器后,云平台会发放初始积分,用来满足云服务器安装后的突发性能要求。 云服务器运行后,就会开始消耗积分以满足需求,同时云平台按照一定的速度发放积分。当云服务器实际计算性能高于基准CPU计算性能时,会消耗更多的CPU积分来提升CPU性能,满足工作需求。 云平台发放的积分可以累积,但达到最大积分后,停止累积。 初始积分不计入累积积分上限。 当云服务器开始消耗CPU积分时,优先使用初始CPU积分。 1个vCPU按照100%利用率,运行1分钟 ,消耗1个积分。 如果实际计算性能长期高于基准性能,则会持续消耗累积积分,当累积积分为0时,实际计算性能无法超过基准性能。
  • 网络QoS 网络QoS,指利用各种基础技术,为指定的网络通信提供更好的服务能力。配置了QoS的网络环境,增加了网络性能的可预知性,并能够有效地分配网络带宽,更加合理地利用网络资源。 可以通过规格清单(X86)查询指定规格的QoS数据,包括最大带宽/基准带宽(Gbps)、内网最大收发包能力(万PPS)、网卡多队列数、网卡个数上限。 弹性云服务器根据不同的规格限制内网带宽和内网收发包能力。 内网基准带宽:指弹性云服务器在整机网络带宽存在争抢时,能稳定达到的保证带宽。 内网最大带宽:指弹性云服务器在整机网络带宽没有争抢(宿主机上其他虚拟机对网络带宽要求不高)时,可以达到的最大带宽。 内网最大收发包能力:指弹性云服务器能达到的最大收发包能力。 单位为PPS(Packets per Second),即每秒发送多少个分组数据包,常用于衡量网络的性能。 网卡多队列数:将弹性云服务器中的网卡中断分散给不同的CPU处理,以满足网卡的需求,从而提升网络PPS和带宽性能。 网卡个数上限:指弹性云服务器最多能挂载多少个网卡。 网络收发包测试方法,请参见网络性能测试方法。 开启网卡多队列的方法,请参见开启网卡多队列功能。
共100000条