云服务器内容精选

  • 为什么选择弹性云服务器 丰富的规格类型:提供多种类型的弹性云服务器,可满足不同的使用场景,每种类型的弹性云服务器包含多种规格,同时支持规格变更。 丰富的镜像类型:可以灵活便捷的使用公共镜像、私有镜像或共享镜像申请弹性云服务器。 丰富的磁盘种类:提供高IO、通用型SSD、超高IO、极速型SSD、通用型SSD V2性能的硬盘,满足不同业务场景需求。 灵活的计费模式:支持包年/包月、按需计费以及竞价计费等模式 购买云服务器 ,满足不同应用场景,根据业务波动随时购买和释放资源。 数据可靠:基于分布式架构的,可弹性扩展的虚拟块存储服务;具有高数据可靠性,高I/O吞吐能力。 安全防护:支持网络隔离,安全组规则保护,远离病毒攻击和木马威胁;Anti-DDoS流量清洗、 Web应用防火墙 漏洞扫描 等多种安全服务提供多维度防护。 弹性易用:根据业务需求和策略,自动调整弹性计算资源,高效匹配业务要求。 高效运维:提供控制台、远程终端和API等多种管理方式,给您完全管理权限。 云端监控:实时采样监控指标,提供及时有效的资源信息监控告警,通知随时触发随时响应。 负载均衡:弹性负载均衡将访问流量自动分发到多台云服务器,扩展应用系统对外的服务能力,实现更高水平的应用程序容错性能。 更多选择理由,请参见产品优势和应用场景。
  • 产品架构 通过和其他产品、服务组合,弹性云服务器可以实现计算、存储、网络、镜像安装等功能: 弹性云服务器在不同可用区中部署(可用区之间通过内网连接),部分可用区发生故障后不会影响同一区域内的其它可用区。 可以通过虚拟私有云建立专属的网络环境,设置子网、安全组,并通过弹性公网IP实现公网链接。 通过 镜像服务 ,可以对弹性云服务器安装镜像,也可以通过私有镜像批量创建弹性云服务器,实现快速的业务部署。 通过云硬盘服务实现数据存储,并通过云硬盘备份服务实现数据的备份和恢复。 云监控 是保持弹性云服务器可靠性、可用性和性能的重要部分,通过云监控,用户可以观察弹性云服务器资源。 云备份(Cloud Backup and Recovery,CBR)提供对云硬盘和弹性云服务器的备份保护服务,支持基于快照技术的备份服务,并支持利用备份数据恢复服务器和磁盘的数据。 图1 E CS 产品架构
  • 访问方式 云服务平台提供了Web化的服务管理平台,即管理控制台和基于HTTPS请求的API(Application programming interface)管理方式。 API方式 如果用户需要将云服务平台上的弹性云服务器集成到第三方系统,用于二次开发,请使用API方式访问弹性云服务器,具体操作请参见《弹性云服务器API参考》。 控制台方式 其他相关操作,请使用管理控制台方式访问弹性云服务器。 如果用户已注册,可直接登录管理控制台,从主页选择“弹性云服务器”。如果未注册,请参见 注册华为账号 并开通华为云和实名认证。
  • 项目与企业项目 弹性云服务器支持通过项目及企业项目对资源进行分组、管理和隔离,实现按照企业、部门或者项目组等不同组织对资源的管理和访问控制。 项目 IAM 中的项目用于将OpenStack的资源(计算资源、存储资源和网络资源)进行分组和隔离。用户拥有的资源必须挂载在项目下,项目可以是一个部门或者项目组。一个账户中可以创建多个项目。 企业项目 企业管理中的企业项目是对多个资源进行分组和管理,不同区域的资源可以划分到一个企业项目中。企业可以根据不同的部门或项目组,将相关的资源放置在相同的企业项目内进行管理,并支持资源在企业项目之间迁移。 项目和企业项目的区别 IAM项目 IAM项目是针对同一个区域内的资源进行分组和隔离,是物理隔离。在IAM项目中的资源不能转移,只能删除后重建。 企业项目 企业项目是IAM项目的升级版,是针对企业不同项目间资源的分组和管理。企业项目中可以包含多个区域的资源,且项目中的资源可以迁入迁出。如果您开通了企业管理,将不能创建新的IAM项目(只能管理已有项目)。未来IAM项目将逐渐被企业项目所替代,推荐使用更为灵活的企业项目。 项目和企业项目都可以授权给一个或者多个用户组进行管理,管理企业项目的用户归属于用户组。通过给用户组授予策略,用户组中的用户就能在所属项目/企业项目中获得策略中定义的权限。 关于如何创建项目、企业项目,以及如何授权,请参阅管理项目和企业项目。
  • IAM身份认证 弹性云服务器支持通过IAM进行精细的权限管理,实现用户身份认证、权限分配、访问控制等功能,可以帮助您安全地控制资源的访问。 您可以在账号中创建IAM用户,并授权控制他们对资源的访问范围。IAM权限是作用于云资源的,IAM权限定义了允许和拒绝的访问操作,以此实现云资源权限访问控制。 权限管理简介,请参见ECS权限管理。 授权使用ECS,请参见创建用户并授权使用ECS。 自定义策略,请参见ECS自定义策略。 策略及授权项详情,请参见策略及授权项说明。
  • 访问控制 虚拟私有云 虚拟私有云(Virtual Private Cloud,以下简称VPC)为弹性云服务器构建了一个逻辑上完全隔离的专有区域,您可以在自己的逻辑隔离区域中定义虚拟网络,为弹性云服务器构建一个逻辑上完全隔离的专有区域。您还可以在VPC中定义安全组、VPN、IP地址段、带宽等网络特性,方便管理、配置内部网络,进行安全、快捷的网络变更。同时,您可以自定义安全组内与组间弹性云服务器的访问规则,加强弹性云服务器的安全保护。 安全组 安全组是一个逻辑上的分组,为具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。安全组创建后,用户可以在安全组中定义各种访问规则,当弹性云服务器加入该安全组后,即受到这些访问规则的保护。 如何设置虚拟私有云和安全组,请参见步骤二:网络配置。
  • 推理加速型Pi1 概述 Pi1型弹性云服务器采用专为AI推理打造的NVIDIA Tesla P4 GPU,能够提供超强的实时推理能力。Pi1型弹性云服务器借助P4的INT8运算器,能够将推理延时降低15倍。配备硬件解码引擎,能够同时支持35路高清视频流的实时转码与推理。 规格 表13 Pi1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU 显存 (GiB) 本地盘 虚拟化类型 pi1.2xlarge.4 8 32 5/1.6 40 2 1 × P4 1 × 8GiB - KVM pi1.4xlarge.4 16 64 8/3.2 70 4 2 × P4 2 × 8GiB - KVM pi1.8xlarge.4 32 128 10/6.5 140 8 4 × P4 4 × 8GiB - KVM Pi1型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2697 v4,主频2.3GHz,睿频3.5GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla P4 GPU卡,单实例最大支持4张P4 GPU卡。 提供GPU硬件直通能力。 单GPU单精度计算能力最高5.5 TFLOPS。 单GPU INT8计算能力最高22 TOPS。 单GPU提供8GiB ECC显存,带宽192GiB/s。 GPU内置硬件视频编解码引擎,能够同时进行35路高清视频解码与实时推理。 常规支持软件列表 Pi1实例主要用于GPU推理计算场景,例如图片识别、 语音识别 自然语言处理 等场景。 常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等深度学习框架 使用须知 Pi1型云服务器,在按需付费的模式下,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。具体请参见产品价格详情。 Pi1型云服务器,在按需付费的模式下,关机后会释放资源,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 Pi1型弹性云服务器不支持规格变更。 Pi1型云服务器,所在物理机发生故障时,云服务器支持自动恢复。 使用公共镜像创建的Pi1型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的Pi1型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
  • 推理加速型Pi2 概述 Pi2型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。 规格 表12 Pi2型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 GPU 显存 (GiB) 本地盘 虚拟化类型 pi2.2xlarge.4 8 32 10/4 50 4 4 1 × T4 1 × 16 - KVM pi2.4xlarge.4 16 64 15/8 100 8 8 2 × T4 2 × 16 - KVM pi2.8xlarge.4 32 128 25/15 200 16 8 4 × T4 4 × 16 - KVM Pi2型弹性云服务器功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡。 提供GPU硬件直通能力。 单GPU单精度计算能力最高8.1 TFLOPS。 单GPU INT8计算能力最高130 TOPS。 单GPU提供16GiB GDDR6显存,带宽320GiB/s。 内置1个NVENC和2个NVDEC。 常规支持软件列表 Pi2实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。 常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。 使用须知 Pi2型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 Pi2型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 Pi2型云服务器,所在物理机发生故障时,云服务器支持自动恢复。 使用公共镜像创建的Pi2型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的Pi2型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
  • 计算加速型P2s 概述 P2s型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2s型弹性云服务器能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格 表9 P2s型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 GPU GPU连接技术 显存(GiB) 虚拟化类型 p2s.2xlarge.8 8 64 10/4 50 4 4 1 × V100 PCIe Gen3 1 × 32GiB KVM p2s.4xlarge.8 16 128 15/8 100 8 8 2 × V100 PCIe Gen3 2 × 32GiB KVM p2s.8xlarge.8 32 256 25/15 200 16 8 4 × V100 PCIe Gen3 4 × 32GiB KVM p2s.16xlarge.8 64 512 30/30 400 32 8 8 × V100 PCIe Gen3 8 × 32GiB KVM P2s型弹性云服务器功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力14 TFLOPS,双精度能力7 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到112 TFLOPS。 单实例最大网络带宽30Gb/s。 使用32GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P2s型云服务器可以做到分钟级快速发放。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2s实例上。 常规软件支持列表 P2s型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2s型云服务器。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD 使用须知 P2s型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 P2s型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 使用公共镜像创建的P2s型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P2s型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
  • 计算加速型P2v 概述 P2v型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2v型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格 表10 P2v型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 GPU GPU连接技术 显存 (GiB) 虚拟化类型 p2v.2xlarge.8 8 64 10/4 50 4 4 1 × V100 - 1 × 16GiB KVM p2v.4xlarge.8 16 128 15/8 100 8 8 2 × V100 NVLink 2 × 16GiB KVM p2v.8xlarge.8 32 256 25/15 200 16 8 4 × V100 NVLink 4 × 16GiB KVM p2v.16xlarge.8 64 512 30/30 400 32 8 8 × V100 NVLink 8 × 16GiB KVM P2v型弹性云服务器功能如下: 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。 单实例最大网络带宽30Gb/s。 使用16GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P2v型云服务器可以做到分钟级快速发放。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2v实例上。 常规软件支持列表 P2v型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2v型云服务器。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD 使用须知 P2v型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 P2v型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 使用公共镜像创建的P2v型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P2v型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
  • 计算加速型P1 概述 P1型弹性云服务器采用NVIDIA Tesla P100 GPU,在提供云服务器灵活性的同时,提供优质性能体验和优良的性价比。P1型弹性云服务器支持GPU Direct技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,在深度学习、图形数据库、高性能数据库、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势,适用于科学计算等。 规格 表11 P1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 GPU 显存 (GiB) 本地盘 (GiB) 虚拟化类型 p1.2xlarge.8 8 64 5/1.6 35 2 1 × P100 1 × 16 1 × 800 KVM p1.4xlarge.8 16 128 8/3.2 70 4 2 × P100 2 × 16 2 × 800 KVM p1.8xlarge.8 32 256 10/6.5 140 8 4 × P100 4 × 16 4 × 800 KVM P1型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2690 v4,主频2.6GHz,睿频3.5GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla P100 GPU卡,单实例最大支持4张P100显卡,如果需要使用单机8张P100显卡,可以使用裸金属服务器。 提供GPU硬件直通能力。 单精度能力9.3 TFLOPS,双精度能力4.7 TFLOPS。 最大网络带宽10Gb/s。 使用16GiB HBM2显存,显存带宽732Gb/s。 使用800GiB的NVMe SSD卡作为本地临时存储。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P1型云服务器可以做到分钟级快速发放。用户可以根据业务规模灵活选择规格,后续将逐步支持1:2、1:4、1:8规格云服务器的创建。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P1实例上。 常规支持软件列表 P1型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P1型云服务器。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max Agisoft PhotoScan MapD 使用须知 P1型云服务器的系统盘大小建议大于40GiB。 P1型云服务器包含NVMe SSD本地盘,关机后仍然收费,如果停止计费,需删除弹性云服务器。 P1型 云服务器配置 了NVMe SSD本地盘,专为深度学习训练、HPC高性能计算等对存储I/O性能有极高要求的业务场景设计。本地盘与特定规格的云服务器绑定,不可单独购买,不可卸载并挂载到另一台云服务器上使用。 P1型云服务器配置的NVMe SSD本地盘有丢失数据的风险(比如NVMe SSD故障或宿主机故障时),强烈建议您在本地NVMe SSD磁盘中存放临时数据,如需存放重要数据,请做好数据备份。 P1型弹性云服务器不支持规格变更。 P1型弹性云服务器不支持自动恢复功能: 部分宿主机硬件故障或亚健康等场景,需要用户配合关闭ECS完成宿主机硬件维修动作。 因系统维护或硬件故障等,HA重新部署ECS实例后,实例会冷迁移到其他宿主机,本地盘数据不保留。 删除P1型弹性云服务器后,本地NVMe SSD磁盘的数据会被自动清除。 使用公共镜像创建的P1型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P1型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
  • 图形加速增强型G3 概述 G3型弹性云服务器基于PCI直通技术,独享整张GPU卡,提供专业级的图形加速能力。同时,G3型弹性云服务器使用NVIDIA Tesla M60 GPU卡,能够支持DirectX、OpenGL接口,可以提供最大显存16GiB,支持最大4096 × 2160分辨率,是专业级图形工作站的首选。 规格 表6 G3型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU 显存 (GiB) 虚拟化类型 g3.4xlarge.4 16 64 8/2.5 50 2 1 × M60核心 1×8 KVM g3.8xlarge.4 32 128 10/5 100 4 2 × M60核心 2×8 KVM NVIDIA Tesla M60板卡包含两颗M60 GPU,每颗M60 GPU包含2048 CUDA 核心和8GiB显存。G系列云服务器所指的M60一般指的是M60 GPU, 而不是M60板卡。 G3型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2697 v4,主频2.3GHz,睿频3.5GHz。 支持专业级图形加速接口。 支持NVIDIA M60 GPU卡。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持图形加速应用。 提供GPU直通的能力。 自动化的调度G3型弹性云服务器到装有NVIDIA M60 GPU卡的可用区。 可以提供最大显存16GiB,分辨率为4096×2160的图形图像处理能力。 使用须知 G3型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 G3型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 G3型Windows操作系统云服务器启动时默认加载了GRID驱动,使用vGPU显卡作为默认视频输出,暂不支持使用管理控制台提供的“远程登录”功能。请使用RDP协议(如Windows远程桌面MSTSC)访问G3型实例,之后安装远程访问工具,如VNC工具等第三方VDI工具。 使用公共镜像创建的G3型弹性云服务器默认已安装特定版本的GRID驱动。 使用私有镜像创建的G3型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。详细安装操作请参考安装GRID驱动。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
  • 图形加速型G1 概述 G1型弹性云服务器基于NVIDIA GRID虚拟GPU技术,提供较为经济的图形加速能力。同时,G1型弹性云服务器使用NVIDIA Tesla M60 GPU卡,能够支持DirectX、OpenGL,可以提供最大显存8GiB、分辨率为4096×2160的图形图像处理能力,适用于图形渲染要求较高的应用。 规格 表7 G1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 最大收发包能力 GPU 显存 (GiB) 虚拟化类型 g1.xlarge 4 8 中 中 1 × M60-1Q 1 XEN g1.xlarge.4 4 16 中 中 1 × M60-1Q 1 XEN g1.2xlarge 8 16 中 中 1 × M60-2Q 2 XEN g1.2xlarge.8 8 64 中 中 直通 8 XEN g1.4xlarge 16 32 中 中 1 × M60-4Q 4 XEN M60-xQ使用GPU虚拟化能力,x为1/2/4/8,表示云服务器使用GRID技术将M60 GPU虚拟为不同规格和型号的vGPU, x对应于vGPU的显存大小,Q表示该类型的vGPU主要适用于工作站和桌面场景。更多关于GRID虚拟GPU的介绍,请参见NVIDIA官方文档。 G1型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2690 v4,主频2.6GHz,睿频3.5GHz。 支持NVIDIA M60 GPU卡。 支持图形加速应用。 提供GPU硬件虚拟化(vGPU)和GPU直通能力。 自动化的调度G1型弹性云服务器到装有NVIDIA M60 GPU卡的可用区。 可以提供最大显存8GiB,分辨率为4096×2160的图形图像处理能力。 使用须知 G1型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 G1型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 G1型弹性云服务器不支持规格变更。 规格为g1.2xlarge.8的弹性云服务器,不支持使用云平台提供的“远程登录”功能。请先使用MSTSC方式登录,然后自行安装VNC工具进行登录。 对于非g1.2xlarge.8的G1型弹性云服务器,支持使用云平台提供的“远程登录”功能,具体操作请参见远程登录(VNC方式)。 使用公共镜像创建的G1型弹性云服务器默认已安装特定版本的GRID驱动。 使用私有镜像创建的G1型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。详细安装操作请参考安装GRID驱动。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
  • 计算加速型P2vs 概述 P2vs型弹性云服务器采用NVIDIA Tesla V100 GPU (32G显存),在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2vs型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格 表8 P2vs型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU GPU连接技术 显存 (GiB) 虚拟化类型 p2vs.2xlarge.8 8 64 10/4 50 4 1 × V100 - 1 × 32GiB KVM p2vs.4xlarge.8 16 128 15/8 100 8 2 × V100 NVLink 2 × 32GiB KVM p2vs.8xlarge.8 32 256 25/15 200 16 4 × V100 NVLink 4 × 32GiB KVM p2vs.16xlarge.8 64 512 30/30 400 32 8 × V100 NVLink 8 × 32GiB KVM P2vs型弹性云服务器功能如下: 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。 单实例最大网络带宽30Gb/s。 使用32GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P2vs型云服务器可以做到分钟级快速发放。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2vs实例上。 常规软件支持列表 P2vs型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2vs型云服务器。 常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD 使用须知 P2vs型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 P2vs型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 使用公共镜像创建的P2vs型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P2vs型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
  • 图形加速增强型G6 概述 G6型弹性云服务器使用NVIDIA Tesla T4 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供16GiB显存,理论性能Pixel Rate:101.8GPixel/s,Texture Rate:254.4GTexel/s,满足专业级的图形处理需求。 请按需选择您所需要的类型和规格。 规格 表4 G6型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 GPU 显存 (GiB) 虚拟化类型 g6.xlarge.4 4 16 6/2 200 8 8 1 × T4 16 KVM g6.4xlarge.4 16 64 15/8 200 8 8 1 × T4 16 KVM g6.6xlarge.4 24 96 25/15 200 8 8 1 × T4 16 KVM g6.9xlarge.7 36 252 25/15 200 16 8 1 × T4 16 KVM g6.18xlarge.7 72 504 30/30 400 32 16 2 × T4 32 KVM G6型弹性云服务器功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6266,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持图形加速接口: DirectX 12、Direct2D、DirectX Video Acceleration (DXVA) OpenGL 4.5 Vulkan 1.0 支持CUDA和OpenCL。 支持NVIDIA T4 GPU卡。 支持图形加速应用。 支持CPU重载推理应用。 自动化的调度G6型弹性云服务器到装有NVIDIA T4 GPU卡的可用区。 内置1个NVENC和2个NVDEC。 常规支持软件列表 G6型弹性云服务器主要用于图形加速场景,例如图像渲染、 云桌面 、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G6型云服务器。常用的图形处理软件支持列表如下: AutoCAD 3DS MAX MAYA Agisoft PhotoScan ContextCapture 使用须知 G6型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 G6型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 使用公共镜像创建的G6型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。 配置GRID License步骤请参考GPU加速型实例安装GRID驱动。 使用私有镜像创建的G6型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。 详细安装操作请参考GPU加速型实例安装GRID驱动。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。