云服务器内容精选
-
为什么选择弹性云服务器 丰富的规格类型:提供多种类型的弹性云服务器,可满足不同的使用场景,每种类型的弹性云服务器包含多种规格,同时支持规格变更。 丰富的镜像类型:可以灵活便捷的使用公共镜像、私有镜像或共享镜像申请弹性云服务器。 丰富的磁盘种类:提供高IO、通用型SSD、超高IO、极速型SSD、通用型SSD V2性能的硬盘,满足不同业务场景需求。 灵活的计费模式:支持包年/包月、按需计费以及竞价计费等模式 购买云服务器 ,满足不同应用场景,根据业务波动随时购买和释放资源。 数据可靠:基于分布式架构的,可弹性扩展的虚拟块存储服务;具有高数据可靠性,高I/O吞吐能力。 安全防护:支持网络隔离,安全组规则保护,远离病毒攻击和木马威胁;Anti-DDoS流量清洗、 Web应用防火墙 、 漏洞扫描 等多种安全服务提供多维度防护。 弹性易用:根据业务需求和策略,自动调整弹性计算资源,高效匹配业务要求。 高效运维:提供控制台、远程终端和API等多种管理方式,给您完全管理权限。 云端监控:实时采样监控指标,提供及时有效的资源信息监控告警,通知随时触发随时响应。 负载均衡:弹性负载均衡将访问流量自动分发到多台云服务器,扩展应用系统对外的服务能力,实现更高水平的应用程序容错性能。 更多选择理由,请参见产品优势和应用场景。
-
产品架构 通过和其他产品、服务组合,弹性云服务器可以实现计算、存储、网络、镜像安装等功能: 弹性云服务器在不同可用区中部署(可用区之间通过内网连接),部分可用区发生故障后不会影响同一区域内的其它可用区。 可以通过虚拟私有云建立专属的网络环境,设置子网、安全组,并通过弹性公网IP实现公网链接。 通过 镜像服务 ,可以对弹性云服务器安装镜像,也可以通过私有镜像批量创建弹性云服务器,实现快速的业务部署。 通过云硬盘服务实现数据存储,并通过云硬盘备份服务实现数据的备份和恢复。 云监控 是保持弹性云服务器可靠性、可用性和性能的重要部分,通过云监控,用户可以观察弹性云服务器资源。 云备份(Cloud Backup and Recovery,CBR)提供对云硬盘和弹性云服务器的备份保护服务,支持基于快照技术的备份服务,并支持利用备份数据恢复服务器和磁盘的数据。 图1 E CS 产品架构
-
访问方式 云服务平台提供了Web化的服务管理平台,即管理控制台和基于HTTPS请求的API(Application programming interface)管理方式。 API方式 如果用户需要将云服务平台上的弹性云服务器集成到第三方系统,用于二次开发,请使用API方式访问弹性云服务器,具体操作请参见《弹性云服务器API参考》。 控制台方式 其他相关操作,请使用管理控制台方式访问弹性云服务器。 如果用户已注册,可直接登录管理控制台,从主页选择“弹性云服务器”。如果未注册,请参见 注册华为账号 并开通华为云和实名认证。
-
IAM 身份认证 弹性云服务器支持通过IAM进行精细的权限管理,实现用户身份认证、权限分配、访问控制等功能,可以帮助您安全地控制资源的访问。 您可以在账号中创建IAM用户,并授权控制他们对资源的访问范围。IAM权限是作用于云资源的,IAM权限定义了允许和拒绝的访问操作,以此实现云资源权限访问控制。 权限管理简介,请参见ECS权限管理。 授权使用ECS,请参见创建用户并授权使用ECS。 自定义策略,请参见ECS自定义策略。 策略及授权项详情,请参见策略及授权项说明。
-
访问控制 虚拟私有云 虚拟私有云(Virtual Private Cloud,以下简称VPC)为弹性云服务器构建了一个逻辑上完全隔离的专有区域,您可以在自己的逻辑隔离区域中定义虚拟网络,为弹性云服务器构建一个逻辑上完全隔离的专有区域。您还可以在VPC中定义安全组、VPN、IP地址段、带宽等网络特性,方便管理、配置内部网络,进行安全、快捷的网络变更。同时,您可以自定义安全组内与组间弹性云服务器的访问规则,加强弹性云服务器的安全保护。 安全组 安全组是一个逻辑上的分组,为具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。安全组创建后,用户可以在安全组中定义各种访问规则,当弹性云服务器加入该安全组后,即受到这些访问规则的保护。 如何设置虚拟私有云和安全组,请参见步骤二:网络配置。
-
项目与企业项目 弹性云服务器支持通过项目及企业项目对资源进行分组、管理和隔离,实现按照企业、部门或者项目组等不同组织对资源的管理和访问控制。 项目 IAM中的项目用于将OpenStack的资源(计算资源、存储资源和网络资源)进行分组和隔离。用户拥有的资源必须挂载在项目下,项目可以是一个部门或者项目组。一个账户中可以创建多个项目。 企业项目 企业管理中的企业项目是对多个资源进行分组和管理,不同区域的资源可以划分到一个企业项目中。企业可以根据不同的部门或项目组,将相关的资源放置在相同的企业项目内进行管理,并支持资源在企业项目之间迁移。 项目和企业项目的区别 IAM项目 IAM项目是针对同一个区域内的资源进行分组和隔离,是物理隔离。在IAM项目中的资源不能转移,只能删除后重建。 企业项目 企业项目是IAM项目的升级版,是针对企业不同项目间资源的分组和管理。企业项目中可以包含多个区域的资源,且项目中的资源可以迁入迁出。如果您开通了企业管理,将不能创建新的IAM项目(只能管理已有项目)。未来IAM项目将逐渐被企业项目所替代,推荐使用更为灵活的企业项目。 项目和企业项目都可以授权给一个或者多个用户组进行管理,管理企业项目的用户归属于用户组。通过给用户组授予策略,用户组中的用户就能在所属项目/企业项目中获得策略中定义的权限。 关于如何创建项目、企业项目,以及如何授权,请参阅管理项目和企业项目。
-
推理加速型Pi1 概述 Pi1型弹性云服务器采用专为AI推理打造的NVIDIA Tesla P4 GPU,能够提供超强的实时推理能力。Pi1型弹性云服务器借助P4的INT8运算器,能够将推理延时降低15倍。配备硬件解码引擎,能够同时支持35路高清视频流的实时转码与推理。 规格 表13 Pi1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU 显存 (GiB) 本地盘 虚拟化类型 pi1.2xlarge.4 8 32 5/1.6 40 2 1 × P4 1 × 8GiB - KVM pi1.4xlarge.4 16 64 8/3.2 70 4 2 × P4 2 × 8GiB - KVM pi1.8xlarge.4 32 128 10/6.5 140 8 4 × P4 4 × 8GiB - KVM Pi1型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2697 v4,主频2.3GHz,睿频3.5GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla P4 GPU卡,单实例最大支持4张P4 GPU卡。 提供GPU硬件直通能力。 单GPU单精度计算能力最高5.5 TFLOPS。 单GPU INT8计算能力最高22 TOPS。 单GPU提供8GiB ECC显存,带宽192GiB/s。 GPU内置硬件视频编解码引擎,能够同时进行35路高清视频解码与实时推理。 常规支持软件列表 Pi1实例主要用于GPU推理计算场景,例如图片识别、 语音识别 、 自然语言处理 等场景。 常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等深度学习框架 使用须知 Pi1型云服务器,在按需付费的模式下,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。具体请参见产品价格详情。 Pi1型云服务器,在按需付费的模式下,关机后会释放资源,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 Pi1型弹性云服务器不支持规格变更。 Pi1型云服务器,所在物理机发生故障时,云服务器支持自动恢复。 使用公共镜像创建的Pi1型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的Pi1型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
-
推理加速型Pi2 概述 Pi2型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。 规格 表12 Pi2型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 GPU 显存 (GiB) 本地盘 虚拟化类型 pi2.2xlarge.4 8 32 10/4 50 4 4 1 × T4 1 × 16 - KVM pi2.4xlarge.4 16 64 15/8 100 8 8 2 × T4 2 × 16 - KVM pi2.8xlarge.4 32 128 25/15 200 16 8 4 × T4 4 × 16 - KVM Pi2型弹性云服务器功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡。 提供GPU硬件直通能力。 单GPU单精度计算能力最高8.1 TFLOPS。 单GPU INT8计算能力最高130 TOPS。 单GPU提供16GiB GDDR6显存,带宽320GiB/s。 内置1个NVENC和2个NVDEC。 常规支持软件列表 Pi2实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。 常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。 使用须知 Pi2型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 Pi2型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 Pi2型云服务器,所在物理机发生故障时,云服务器支持自动恢复。 使用公共镜像创建的Pi2型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的Pi2型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
-
计算加速型P2s 概述 P2s型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2s型弹性云服务器能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格 表9 P2s型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 GPU GPU连接技术 显存(GiB) 虚拟化类型 p2s.2xlarge.8 8 64 10/4 50 4 4 1 × V100 PCIe Gen3 1 × 32GiB KVM p2s.4xlarge.8 16 128 15/8 100 8 8 2 × V100 PCIe Gen3 2 × 32GiB KVM p2s.8xlarge.8 32 256 25/15 200 16 8 4 × V100 PCIe Gen3 4 × 32GiB KVM p2s.16xlarge.8 64 512 30/30 400 32 8 8 × V100 PCIe Gen3 8 × 32GiB KVM P2s型弹性云服务器功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力14 TFLOPS,双精度能力7 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到112 TFLOPS。 单实例最大网络带宽30Gb/s。 使用32GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P2s型云服务器可以做到分钟级快速发放。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2s实例上。 常规软件支持列表 P2s型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2s型云服务器。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD 使用须知 P2s型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 P2s型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 使用公共镜像创建的P2s型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P2s型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
-
计算加速型P2v 概述 P2v型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2v型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格 表10 P2v型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 GPU GPU连接技术 显存 (GiB) 虚拟化类型 p2v.2xlarge.8 8 64 10/4 50 4 4 1 × V100 - 1 × 16GiB KVM p2v.4xlarge.8 16 128 15/8 100 8 8 2 × V100 NVLink 2 × 16GiB KVM p2v.8xlarge.8 32 256 25/15 200 16 8 4 × V100 NVLink 4 × 16GiB KVM p2v.16xlarge.8 64 512 30/30 400 32 8 8 × V100 NVLink 8 × 16GiB KVM P2v型弹性云服务器功能如下: 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。 单实例最大网络带宽30Gb/s。 使用16GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P2v型云服务器可以做到分钟级快速发放。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2v实例上。 常规软件支持列表 P2v型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2v型云服务器。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD 使用须知 P2v型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 P2v型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 使用公共镜像创建的P2v型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P2v型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
-
计算加速型P1 概述 P1型弹性云服务器采用NVIDIA Tesla P100 GPU,在提供云服务器灵活性的同时,提供优质性能体验和优良的性价比。P1型弹性云服务器支持GPU Direct技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,在深度学习、图形数据库、高性能数据库、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势,适用于科学计算等。 规格 表11 P1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 GPU 显存 (GiB) 本地盘 (GiB) 虚拟化类型 p1.2xlarge.8 8 64 5/1.6 35 2 1 × P100 1 × 16 1 × 800 KVM p1.4xlarge.8 16 128 8/3.2 70 4 2 × P100 2 × 16 2 × 800 KVM p1.8xlarge.8 32 256 10/6.5 140 8 4 × P100 4 × 16 4 × 800 KVM P1型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2690 v4,主频2.6GHz,睿频3.5GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla P100 GPU卡,单实例最大支持4张P100显卡,如果需要使用单机8张P100显卡,可以使用裸金属服务器。 提供GPU硬件直通能力。 单精度能力9.3 TFLOPS,双精度能力4.7 TFLOPS。 最大网络带宽10Gb/s。 使用16GiB HBM2显存,显存带宽732Gb/s。 使用800GiB的NVMe SSD卡作为本地临时存储。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P1型云服务器可以做到分钟级快速发放。用户可以根据业务规模灵活选择规格,后续将逐步支持1:2、1:4、1:8规格云服务器的创建。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P1实例上。 常规支持软件列表 P1型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P1型云服务器。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max Agisoft PhotoScan MapD 使用须知 P1型云服务器的系统盘大小建议大于40GiB。 P1型云服务器包含NVMe SSD本地盘,关机后仍然收费,如果停止计费,需删除弹性云服务器。 P1型 云服务器配置 了NVMe SSD本地盘,专为深度学习训练、HPC高性能计算等对存储I/O性能有极高要求的业务场景设计。本地盘与特定规格的云服务器绑定,不可单独购买,不可卸载并挂载到另一台云服务器上使用。 P1型云服务器配置的NVMe SSD本地盘有丢失数据的风险(比如NVMe SSD故障或宿主机故障时),强烈建议您在本地NVMe SSD磁盘中存放临时数据,如需存放重要数据,请做好数据备份。 P1型弹性云服务器不支持规格变更。 P1型弹性云服务器不支持自动恢复功能: 部分宿主机硬件故障或亚健康等场景,需要用户配合关闭ECS完成宿主机硬件维修动作。 因系统维护或硬件故障等,HA重新部署ECS实例后,实例会冷迁移到其他宿主机,本地盘数据不保留。 删除P1型弹性云服务器后,本地NVMe SSD磁盘的数据会被自动清除。 使用公共镜像创建的P1型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P1型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
-
图形加速型G1 概述 G1型弹性云服务器基于NVIDIA GRID虚拟GPU技术,提供较为经济的图形加速能力。同时,G1型弹性云服务器使用NVIDIA Tesla M60 GPU卡,能够支持DirectX、OpenGL,可以提供最大显存8GiB、分辨率为4096×2160的图形图像处理能力,适用于图形渲染要求较高的应用。 规格 表7 G1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 最大收发包能力 GPU 显存 (GiB) 虚拟化类型 g1.xlarge 4 8 中 中 1 × M60-1Q 1 XEN g1.xlarge.4 4 16 中 中 1 × M60-1Q 1 XEN g1.2xlarge 8 16 中 中 1 × M60-2Q 2 XEN g1.2xlarge.8 8 64 中 中 直通 8 XEN g1.4xlarge 16 32 中 中 1 × M60-4Q 4 XEN M60-xQ使用GPU虚拟化能力,x为1/2/4/8,表示云服务器使用GRID技术将M60 GPU虚拟为不同规格和型号的vGPU, x对应于vGPU的显存大小,Q表示该类型的vGPU主要适用于工作站和桌面场景。更多关于GRID虚拟GPU的介绍,请参见NVIDIA官方文档。 G1型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2690 v4,主频2.6GHz,睿频3.5GHz。 支持NVIDIA M60 GPU卡。 支持图形加速应用。 提供GPU硬件虚拟化(vGPU)和GPU直通能力。 自动化的调度G1型弹性云服务器到装有NVIDIA M60 GPU卡的可用区。 可以提供最大显存8GiB,分辨率为4096×2160的图形图像处理能力。 使用须知 G1型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 G1型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 G1型弹性云服务器不支持规格变更。 规格为g1.2xlarge.8的弹性云服务器,不支持使用云平台提供的“远程登录”功能。请先使用MSTSC方式登录,然后自行安装VNC工具进行登录。 对于非g1.2xlarge.8的G1型弹性云服务器,支持使用云平台提供的“远程登录”功能,具体操作请参见远程登录(VNC方式)。 使用公共镜像创建的G1型弹性云服务器默认已安装特定版本的GRID驱动。 使用私有镜像创建的G1型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。详细安装操作请参考安装GRID驱动。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
-
计算加速型P2vs 概述 P2vs型弹性云服务器采用NVIDIA Tesla V100 GPU (32G显存),在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2vs型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格 表8 P2vs型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU GPU连接技术 显存 (GiB) 虚拟化类型 p2vs.2xlarge.8 8 64 10/4 50 4 1 × V100 - 1 × 32GiB KVM p2vs.4xlarge.8 16 128 15/8 100 8 2 × V100 NVLink 2 × 32GiB KVM p2vs.8xlarge.8 32 256 25/15 200 16 4 × V100 NVLink 4 × 32GiB KVM p2vs.16xlarge.8 64 512 30/30 400 32 8 × V100 NVLink 8 × 32GiB KVM P2vs型弹性云服务器功能如下: 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。 单实例最大网络带宽30Gb/s。 使用32GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力: 网络自定义,自由划分子网、设置网络访问策略。 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。 弹性伸缩,快速增加或减少云服务器数量。 灵活选择: 与普通云服务器一样,P2vs型云服务器可以做到分钟级快速发放。 优秀的超算生态: 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2vs实例上。 常规软件支持列表 P2vs型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2vs型云服务器。 常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD 使用须知 P2vs型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 P2vs型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 使用公共镜像创建的P2vs型云服务器,默认已安装Tesla驱动。 使用私有镜像创建的P2vs型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
-
图形加速增强型G3 概述 G3型弹性云服务器基于PCI直通技术,独享整张GPU卡,提供专业级的图形加速能力。同时,G3型弹性云服务器使用NVIDIA Tesla M60 GPU卡,能够支持DirectX、OpenGL接口,可以提供最大显存16GiB,支持最大4096 × 2160分辨率,是专业级图形工作站的首选。 规格 表6 G3型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU 显存 (GiB) 虚拟化类型 g3.4xlarge.4 16 64 8/2.5 50 2 1 × M60核心 1×8 KVM g3.8xlarge.4 32 128 10/5 100 4 2 × M60核心 2×8 KVM NVIDIA Tesla M60板卡包含两颗M60 GPU,每颗M60 GPU包含2048 CUDA 核心和8GiB显存。G系列云服务器所指的M60一般指的是M60 GPU, 而不是M60板卡。 G3型弹性云服务器功能如下: 处理器:英特尔® 至强® 处理器 E5-2697 v4,主频2.3GHz,睿频3.5GHz。 支持专业级图形加速接口。 支持NVIDIA M60 GPU卡。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持图形加速应用。 提供GPU直通的能力。 自动化的调度G3型弹性云服务器到装有NVIDIA M60 GPU卡的可用区。 可以提供最大显存16GiB,分辨率为4096×2160的图形图像处理能力。 使用须知 G3型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 G3型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 G3型Windows操作系统云服务器启动时默认加载了GRID驱动,使用vGPU显卡作为默认视频输出,暂不支持使用管理控制台提供的“远程登录”功能。请使用RDP协议(如Windows远程桌面MSTSC)访问G3型实例,之后安装远程访问工具,如VNC工具等第三方VDI工具。 使用公共镜像创建的G3型弹性云服务器默认已安装特定版本的GRID驱动。 使用私有镜像创建的G3型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。详细安装操作请参考安装GRID驱动。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
-
图形加速增强型G6 概述 G6型弹性云服务器使用NVIDIA Tesla T4 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供16GiB显存,理论性能Pixel Rate:101.8GPixel/s,Texture Rate:254.4GTexel/s,满足专业级的图形处理需求。 请按需选择您所需要的类型和规格。 规格 表4 G6型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 GPU 显存 (GiB) 虚拟化类型 g6.xlarge.4 4 16 6/2 200 8 8 1 × T4 16 KVM g6.4xlarge.4 16 64 15/8 200 8 8 1 × T4 16 KVM g6.6xlarge.4 24 96 25/15 200 8 8 1 × T4 16 KVM g6.9xlarge.7 36 252 25/15 200 16 8 1 × T4 16 KVM g6.18xlarge.7 72 504 30/30 400 32 16 2 × T4 32 KVM G6型弹性云服务器功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6266,主频3.0GHz,睿频3.4GHz。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 支持图形加速接口: DirectX 12、Direct2D、DirectX Video Acceleration (DXVA) OpenGL 4.5 Vulkan 1.0 支持CUDA和OpenCL。 支持NVIDIA T4 GPU卡。 支持图形加速应用。 支持CPU重载推理应用。 自动化的调度G6型弹性云服务器到装有NVIDIA T4 GPU卡的可用区。 内置1个NVENC和2个NVDEC。 常规支持软件列表 G6型弹性云服务器主要用于图形加速场景,例如图像渲染、 云桌面 、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G6型云服务器。常用的图形处理软件支持列表如下: AutoCAD 3DS MAX MAYA Agisoft PhotoScan ContextCapture 使用须知 G6型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 G6型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。 使用公共镜像创建的G6型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。 配置GRID License步骤请参考GPU加速型实例安装GRID驱动。 使用私有镜像创建的G6型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。 详细安装操作请参考GPU加速型实例安装GRID驱动。 GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。 GPU型弹性云服务器不支持热迁移。
更多精彩内容
CDN加速
GaussDB
文字转换成语音
免费的服务器
如何创建网站
域名网站购买
私有云桌面
云主机哪个好
域名怎么备案
手机云电脑
SSL证书申请
云点播服务器
免费OCR是什么
电脑云桌面
域名备案怎么弄
语音转文字
文字图片识别
云桌面是什么
网址安全检测
网站建设搭建
国外CDN加速
SSL免费证书申请
短信批量发送
图片OCR识别
云数据库MySQL
个人域名购买
录音转文字
扫描图片识别文字
OCR图片识别
行驶证识别
虚拟电话号码
电话呼叫中心软件
怎么制作一个网站
Email注册网站
华为VNC
图像文字识别
企业网站制作
个人网站搭建
华为云计算
免费租用云托管
云桌面云服务器
ocr文字识别免费版
HTTPS证书申请
图片文字识别转换
国外域名注册商
使用免费虚拟主机
云电脑主机多少钱
鲲鹏云手机
短信验证码平台
OCR图片文字识别
SSL证书是什么
申请企业邮箱步骤
免费的企业用邮箱
云免流搭建教程
域名价格