华为云用户手册

  • 操作步骤 登录KooMap服务控制台,进入控制台页面。 在左侧导航栏,选择“AR地图”下的“项目管理”菜单,进入“项目管理”页面。 在“项目管理”页面,单击项目名称(蓝色字体),进入该项目详情页。 选择注册成功的数据,单击操作列下的“注册调整”,在“注册调整”弹窗内核对地图注册结果。 如果注册结果不符合要求,可手动调整注册结果的坐标位置及角度。 图1 注册调整 单击“确定”进行地图生成。 地图生成完成后,“地图生成”列显示为“生成成功”。
  • 操作步骤 登录KooMap服务控制台,进入控制台页面。 在左侧导航栏选择“工作共享空间管理”,然后在右侧页面单击工作共享空间名称。 单击“卫星影像概览”页签,进入卫星影像概览页。 图1 卫星影像概览页 在卫星影像概览页,您可参考表1操作任务。 表1 操作任务与操作步骤 操作 操作步骤 适用任务的状态 查询任务 方式一:单击页面左上角任务状态统计环,下方显示对应状态的全部任务。 所有状态(包括未运行、失败、执行中、停止中、等待中、执行成功、停止成功、已归档) 方式二:设置过滤条件查询任务。 在右上角设置任务名称、创建任务时间区间以及任务状态作为过滤条件。 单击或按回车键,界面显示符合过滤条件的全部任务。 说明: 当选择“运行态”或“成功”状态时,可选状态分别如下: 运行态:可选择“停止中”、“等待中”和“执行中”。 成功:可选择“停止成功”和“执行成功”。 启动/重启任务 单击任务卡片中的启动数据处理任务。 说明: 处理时长依赖您选择的待处理数据大小、数量、复杂度、处理等级等因素,耗时可能比较久,请您耐心等待。 未运行、停止成功、失败 停止任务 单击任务卡片中的停止数据处理任务。 执行中、等待中 归档任务 单击任务卡片中的归档任务。 执行成功 解除归档任务 单击任务卡片中的解除归档任务。 已归档 查看成果数据 单击任务卡片中的“查看成果数据”。 跳转到“卫星影像”下的“数据管理”页面。 查看成果数据。 说明: 创建任务时,如果“处理等级”选择“L5”且勾选“金字塔切割”或“矢量切割”,“卫星影像”页面中的“影像等级”列分别用或标识。 执行成功 删除任务 单击任务卡片右上角 。 单击“确定”,完成任务的删除。 失败、未运行、执行成功、停止成功
  • 查看用量统计 用量统计主要是对时空专属存储以及实景三维生产服务的用量统计,您可以查看时空专属存储或影像建模的用量统计。 时空专属存储用量:包括用户上传的数据、数据生产过程中产生的中间数据以及实景三维模型成果数据的存储总量。 用户上传的数据:倾斜摄影影像(航空飞机影像和无人机影像)、生产资料、精修后处理任务的输入数据(精修前后的obj数据)。 数据生产过程产生的中间数据:空三、显式辐射场阶段产生的数据。 实景三维成果数据:纹理Mesh实景三维模型和显式辐射场实景三维模型的osgb、obj格式的文件。 实景三维生产服务影像建模用量:统计成功建模的倾斜摄影影像的像素点数量、成功处理的次数。 实景三维生产服务基础版:支持纹理模型实景三维。 实景三维生产服务专业版:支持显式辐射场实景三维。 用量统计仅做参考,实际情况以账单为准。 登录KooMap服务控制台,进入控制台页面。 在左侧导航栏选择“实景三维”下的“用量统计”菜单,然后在右侧单击“我的存储”页签,查看时空专属存储用量。 图1 时空专属存储用量统计 在左侧导航栏选择“实景三维”下的“用量统计”菜单,然后在右侧单击“实景三维生产服务”页签,查看已处理影像像素量、成功处理的次数。 图2 实景三维生产服务用量统计 父主题: 实景三维操作指导
  • 操作步骤 登录KooMap服务控制台,进入控制台页面。 在左侧导航栏,选择“AR地图”下的“项目管理”菜单,进入“项目管理”页面。 在“项目管理”页面,单击项目名称(蓝色字体),进入该项目详情页。 选择预处理成功的数据,单击操作列下的“提交生产”。 图1 预览轨迹 在“空间预览轨迹”弹窗中核对轨迹是否与实际采图轨迹相符。 如果您对轨迹不满意,则需要重新采集数据并上传数据进行预处理。 单击“提交生产”进行地图注册。 注册完成后,“地图注册”列显示“注册成功”。
  • 查看用量统计 用量统计主要是对时空专属存储以及卫星影像生产服务的用量统计,您可以查看时空专属存储或各等级处理任务的用量统计。 时空专属存储:统计导入的原始卫星影像、矢量数据、生产资料和成果影像存储总量。 卫星影像生产服务用量:统计L2、L3、L4、L5等级处理的成果影像存储用量、处理成功的次数。 用量统计仅供参考,实际情况请以账单为准。 登录KooMap服务控制台,进入控制台页面。 在左侧导航栏选择“卫星影像”下的“用量统计”菜单,然后在右侧单击“我的存储”页签,查看时空专属存储用量。 图1 时空专属存储用量统计 在左侧导航栏选择“卫星影像”下的“用量统计”菜单,然后在右侧单击“卫星影像生产服务”页签,查看所有处理等级的成果影像存储用量、成功处理的次数。 图2 卫星影像生产服务用量统计 父主题: 卫星影像操作指导
  • 修订记录 发布日期 修订记录 2024-05-17 第五次公测发布。 创建上传任务:表格命名辅助工具参数说明,卫星名说明中增加:卫星名前缀不能为PHR1A、PHR1B、WV01、WV02、TH01。 管理上传任务:去掉删除任务。 2023-12-28 第四次公测发布。 新增实景三维操作指导。 2023-11-17 第三次公测发布。 修改“帐号”为“账号”。 2023-06-27 第二次公测发布。 “KooMap Tools”改名为“时空数据专属存储”,修改资料中的有关描述。 影像列表:增加“预览影像数据”章节。 查询影像数据:在操作步骤中增加说明。 2023-04-28 第一次公测发布。
  • 安全运行时与普通运行时 相比于普通运行时,安全运行时可以让您的每个容器(准确地说是Pod)都运行在一个单独的微型虚拟机中,拥有独立的操作系统内核,以及虚拟化层的安全隔离。通过使用安全运行时,不同容器之间的内核、计算资源、网络都是隔离开的,保护了Pod的资源和数据不被其他Pod抢占和窃取。 CCE Turbo 集群支持使用普通运行时和安全运行时创建工作负载,您可以根据业务需求选择使用,两者的区别如下: 分类 安全运行时 普通运行时 容器所在节点类型 弹性云服务器-物理机 弹性云服务器-虚拟机 弹性云服务器-物理机 容器引擎 Containerd Docker、Containerd 容器运行时 Kata runC 容器内核 独占内核 与宿主机共享内核 容器隔离方式 轻量虚拟机 Cgroups和Namespace 容器引擎存储驱动 Device Mapper Docker容器:OverlayFS2 Containerd容器:OverlayFS Pod Overhead 内存:100MiB CPU:0.1Core Pod Overhead为安全容器本身资源占用。比如Pod申请的limits.cpu = 0.5Core和limits.memory = 256MiB,那么该Pod最终会申请0.6Core的CPU和356MiB的内存。 无 最小规格 内存:256MiB CPU:0.25Core 安全容器的CPU核数(单位为Core)与内存(单位为GiB)配比建议在1:1至1:8之间。例如CPU为0.5Core,则内存范围建议在512MiB-4GiB间。 无 容器引擎命令行 crictl Docker容器:docker Containerd容器:crictl Pod的计算资源 CPU和内存的request和limit必须一致 CPU和内存的request和limit可以不一致 主机网络(hostNetwork) 不支持 支持 Containerd和Docker命令行的使用方式对比,请参见容器引擎。 父主题: 容器设置
  • 监控配置 采集配置 采集周期:云原生监控插件的指标采集周期,默认为15秒。 自定义指标采集策略:开启后,云原生监控插件支持采集应用的自定义指标。您需要按照Prometheus规范在应用中提供自定义指标,并且暴露自定义指标的接口,然后在集群中使用该应用镜像部署工作负载,Prometheus会通过采集配置对这些指标进行采集。详情请参见使用云原生监控插件监控自定义指标。 对接 AOM 监控服务 AOM实例是 应用运维管理 服务(AOM)推出的Prometheus监控功能。启用后指标会上报到您选择的AOM实例,其中容器基础指标免费,其他指标按需收费。关于免费指标详情请参见基础指标-容器指标。 对接第三方监控平台 开启后,支持将普罗数据上报至第三方监控平台,您需要提前获取第三方监控平台的数据上报地址及身份认证凭据。详情请参见CCE云原生监控插件对接第三方监控平台。
  • 日志配置 采集配置 CCE可以帮助您快速采集 Kubernetes 集群的容器日志,包括容器标准输出、容器内日志文件、节点日志以及Kubernetes事件,并可快速进行日志查询与分析。 日志上报LTS会创建名为k8s-logs-{clusterId}的默认日志组,并收取相关的费用。LTS收费标准请参见价格计算器。 日志类型 日志 LTS日志流名称 开启状态 参考文档 容器日志 容器标准输出 stdout-{clusterId} 开通业务日志采集需安装云原生日志采集插件。 通过云原生日志采集插件采集容器日志 Kubernetes事件 Kubernetes事件 event-{clusterId} 开通业务日志采集需安装云原生日志采集插件。 收集Kubernetes事件 Kubernetes审计日志 Kubernetes审计日志 audit-{clusterId} 支持单独配置开关 收集Kubernetes审计日志 控制面组件日志 kube-apiserver日志 kube-apiserver-{clusterId} 支持单独配置开关 收集控制面组件日志 kube-controller-manager日志 kube-controller-manager-{clusterId} 支持单独配置开关 kube-scheduler日志 kube-scheduler-{clusterId} 支持单独配置开关 Kubernetes事件上报至AOM 集群中安装云原生日志采集插件后,Kubernetes事件默认上报至LTS,您可以通过该配置将Kubernetes事件上报至AOM。 异常事件上报:默认开启,会将所有异常事件上报至AOM。您可以单击“配置黑名单”,将不需要上报的事件添加至黑名单进行管理。 普通事件上报:开启后,会将普通事件上报至AOM,系统默认配置了部分需要上报的普通事件。如果您需要自定义上报的事件,可以单击“配置白名单”,将需要上报添加至白名单进行管理。
  • AI加速型 AI加速型弹性云服务器是是专门为AI业务提供加速服务的云服务器。基于Ascend芯片低功耗、高算力特性,能效比大幅提升,适用于AI推理场景和视频编解码场景。 AI加速型云服务器包括kAi系列和Ai系列两类。其中: kAi系列:ARM架构,处理器为鲲鹏920系列。 Ai系列:X86架构,处理器为Intel至强系列。 表43 AI加速型实例特点 规格名称 计算 网络 支持集群类型 AI加速型kAi1s CPU/内存配比:1:1/1:2 vCPU数量范围:4-48 处理器:鲲鹏920处理器 基频:2.6GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:400万PPS 最大内网带宽:20Gbps CCE Standard集群 AI加速型Ai1s CPU/内存配比:1:4/1:2 vCPU数量范围:2-32 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:200万PPS 最大内网带宽:25Gbps CCE Standard集群 AI加速型Ai2 CPU/内存配比:1:4 vCPU数量范围:4-96 处理器:第三代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:850万PPS 最大内网带宽:40Gbps CCE Standard集群 AI加速型Ai1 CPU/内存配比:1:4 vCPU数量范围:2-32 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:200万PPS 最大内网带宽:25Gbps CCE Standard集群 表44 kAi1s型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 最大收发包能力 (万/PPS) 网卡多队列数 网卡个数上限 Ascend 310 虚拟化类型 kai1s.xlarge.1 4 4 3/0.8 20 2 2 1 KVM kai1s.2xlarge.1 8 8 4/1.5 40 2 3 2 KVM kai1s.4xlarge.1 16 16 6/3 80 4 4 4 KVM kai1s.3xlarge.2 12 24 8/4 100 4 4 4 KVM kai1s.4xlarge.2 16 32 10/6 140 4 5 6 KVM kai1s.6xlarge.2 24 48 12/8 200 8 6 8 KVM kai1s.9xlarge.2 36 72 16/12 280 8 6 12 KVM kai1s.12xlarge.2 48 96 20/16 400 16 6 12 KVM 表45 Ai1s型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 最大收发包能力 (万/PPS) Ascend 310 Ascend RAM (GiB) 网卡多队列数 网卡个数上限 虚拟化类型 ai1s.3xlarge.2 12 24 12/6 75 4 32 4 6 KVM ai1s.4xlarge.2 16 32 15/8 100 4 32 8 8 KVM ai1s.5xlarge.2 20 40 25/15 200 4 32 8 8 KVM ai1s.9xlarge.2 36 72 30/18 550 4 32 16 8 KVM ai1s.large.4 2 8 4/1.3 20 1 8 2 2 KVM ai1s.xlarge.4 4 16 6/2 35 2 16 2 3 KVM ai1s.2xlarge.4 8 32 10/4 50 4 32 4 4 KVM ai1s.4xlarge.4 16 64 15/8 100 8 64 8 8 KVM ai1s.8xlarge.4 32 128 25/15 200 16 128 8 8 KVM 表46 Ai2型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 最大收发包能力 (万/PPS) Ascend芯片 Ascend RAM (GiB) 网卡多队列数 网卡个数上限 虚拟化类型 ai2.xlarge.4 4 16 8/1.6 80 1 24 3 3 KVM ai2.2xlarge.4 8 32 15/3 150 1 24 4 4 KVM ai2.4xlarge.4 16 64 20/6 280 1 24 8 8 KVM ai2.8xlarge.4 32 128 30/12 550 2 48 8 8 KVM ai2.16xlarge.4 64 256 36/24 800 4 96 16 8 KVM ai2.24xlarge.4 96 384 40/36 850 6 144 32 8 KVM 表47 Ai1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 最大收发包能力 (万/PPS) Ascend 310 Ascend RAM (GiB) 网卡多队列数 网卡个数上限 虚拟化类型 ai1.large.4 2 8 4/1.3 20 1 8 2 2 KVM ai1.xlarge.4 4 16 6/2 35 2 16 2 3 KVM ai1.2xlarge.4 8 32 10/4 50 4 32 4 4 KVM ai1.4xlarge.4 16 64 15/8 100 8 64 8 8 KVM ai1.8xlarge.4 32 128 25/15 200 16 128 8 8 KVM
  • 超高I/O型 超高I/O型弹性云服务器使用高性能NVMe SSD本地磁盘,提供高存储IOPS以及低读写时延。 表38 超高I/O型实例特点 规格名称 计算 网络 支持集群类型 超高I/O型Ir7 CPU/内存配比:1:4 vCPU数量范围:2-64 处理器:第三代英特尔® 至强® 铂金® 可扩展处理器 基频/睿频:3.0GHz/3.5GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:600万PPS 最大内网带宽:40Gbps CCE Standard集群 CCE Turbo集群 超高I/O型I7 CPU/内存配比:1:4 vCPU数量范围:8-96 处理器:第三代英特尔® 至强® 铂金® 可扩展处理器 基频/睿频:3.0GHz/3.5GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:800万PPS 最大内网带宽:44Gbps CCE Standard集群 CCE Turbo集群 超高I/O型Ir3 CPU/内存配比:1:4 vCPU数量范围:2-32 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:550万PPS 最大内网带宽:30Gbps CCE Standard集群 超高I/O型I3 CPU/内存配比:1:8 vCPU数量范围:8-64 处理器:英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.4GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:500万PPS 最大内网带宽:25Gbps CCE Standard集群 表39 Ir7型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 本地盘 (GiB) 虚拟化类型 ir7.large.4 2 8 3/0.8 40 2 3 2 × 50 KVM ir7.xlarge.4 4 16 6/1.5 80 2 3 2 × 100 KVM ir7.2xlarge.4 8 32 15/3.1 150 4 4 2 × 200 KVM ir7.4xlarge.4 16 64 20/6.2 300 4 6 2 × 400 KVM ir7.8xlarge.4 32 128 30/12 400 8 8 2 × 800 KVM ir7.16xlarge.4 64 256 40/25 600 16 8 2 × 1600 KVM 表40 I7型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 本地盘 (GiB) 虚拟化类型 i7.2xlarge.4 8 32 10/3 120 4 4 64 1 × 1600GiB NVMe KVM i7.4xlarge.4 16 64 15/6 200 4 6 96 2 × 1600GiB NVMe KVM i7.8xlarge.4 32 128 25/12 400 8 8 192 4 × 1600GiB NVMe KVM i7.12xlarge.4 48 192 30/18 500 16 8 256 6 × 1600GiB NVMe KVM i7.16xlarge.4 64 256 35/24 600 16 8 256 8 × 1600GiB NVMe KVM i7.24xlarge.4 96 384 44/36 800 32 8 256 12 × 1600GiB NVMe KVM 表41 Ir3型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 本地盘 (GiB) 网卡个数上限 虚拟化类型 ir3.large.4 2 8 4/1.2 40 2 2 × 50 2 KVM ir3.xlarge.4 4 16 8/2.4 80 2 2 × 100 3 KVM ir3.2xlarge.4 8 32 15/4.5 140 4 2 × 200 4 KVM ir3.4xlarge.4 16 64 20/9 250 8 2 × 400 8 KVM ir3.8xlarge.4 32 128 30/18 450 16 2 × 800 8 KVM 表42 I3型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 本地盘 (GiB) 网卡个数上限 虚拟化类型 i3.2xlarge.8 8 64 2.5/2.5 100 4 1 × 1600GiB NVMe 4 KVM i3.4xlarge.8 16 128 5/5 150 4 2 × 1600GiB NVMe 8 KVM i3.8xlarge.8 32 256 10/10 200 8 4 × 1600GiB NVMe 8 KVM i3.12xlarge.8 48 384 15/15 240 8 6 × 1600GiB NVMe 8 KVM i3.15xlarge.8 60 512 25/25 500 16 7 × 1600GiB NVMe 8 KVM i3.16xlarge.8 64 512 25/25 500 16 8 × 1600GiB NVMe 8 KVM
  • 鲲鹏超高I/O型 鲲鹏超高I/O型弹性云服务器搭载鲲鹏920处理器及25GE智能高速网卡,提供最大480GiB基于DDR4的内存实例和高性能网络,擅长处理大型内存数据集和高网络场景。 表36 鲲鹏超高I/O型实例特点 规格名称 计算 网络 支持集群类型 鲲鹏超高I/O型kI1 CPU/内存配比:1:4 vCPU数量范围:8-64 处理器:鲲鹏920处理器 基频:2.6GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:400万PPS 最大内网带宽:30Gbps CCE Standard集群 表37 kI1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡个数上限 网卡多队列数 本地盘 虚拟化类型 ki1.2xlarge.4 8 32 7/3 80 4 4 1 × 3200GiB KVM ki1.4xlarge.4 16 64 12/6 140 6 4 2 × 3200GiB KVM ki1.6xlarge.4 24 96 15/8.5 200 6 8 3 × 3200GiB KVM ki1.8xlarge.4 32 128 18/10 260 6 8 4 × 3200GiB KVM ki1.12xlarge.4 48 192 25/16 350 6 16 6 × 3200GiB KVM ki1.16xlarge.4 64 228 30/20 400 6 16 8 × 3200GiB KVM
  • 鲲鹏内存优化型 鲲鹏内存优化型弹性云服务器搭载鲲鹏920处理器及25GE智能高速网卡,提供最大480GiB基于DDR4的内存实例和高性能网络,擅长处理大型内存数据集和高网络场景。 表34 鲲鹏内存优化型实例特点 规格名称 计算 网络 支持集群类型 鲲鹏内存优化型kM1 CPU/内存配比:1:8 vCPU数量范围:2-60 处理器:鲲鹏920处理器 基频:2.6GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:400万PPS 最大内网带宽:30Gbps CCE Standard集群 表35 kM1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 km1.large.8 2 16 3/0.8 30 2 2 KVM km1.xlarge.8 4 32 5/1.5 50 2 3 KVM km1.2xlarge.8 8 64 7/3 80 4 4 KVM km1.3xlarge.8 12 96 9/4.5 110 4 5 KVM km1.4xlarge.8 16 128 12/6 140 4 6 KVM km1.6xlarge.8 24 192 15/8 200 8 6 KVM km1.8xlarge.8 32 256 18/10 260 8 6 KVM km1.12xlarge.8 48 384 25/16 350 16 8 KVM km1.15xlarge.8 60 480 30/20 400 16 8 KVM
  • 鲲鹏通用计算增强型 鲲鹏通用计算增强型云服务器搭载鲲鹏处理器,提供强劲的鲲鹏算力和高性能网络,更好地满足企业对云上业务性价比高、安全可靠等诉求。 表31 鲲鹏通用计算增强型实例特点 规格名称 计算 网络 支持集群类型 鲲鹏通用计算增强型kC1 CPU/内存配比:1:2/1:4 vCPU数量范围:2-60 处理器:鲲鹏920处理器 基频:2.6GHz 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:400万PPS 最大内网带宽:30Gbps CCE Standard集群 鲲鹏通用计算增强型kC1n CPU/内存配比:1:2/1:4 vCPU数量范围:8-48 处理器:鲲鹏920处理器 基频:2.6GHz 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:350万PPS 最大内网带宽:25Gbps CCE Standard集群 CCE Turbo集群 表32 kC1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 kc1.large.2 2 4 3/0.8 30 2 2 KVM kc1.xlarge.2 4 8 5/1.5 50 2 3 KVM kc1.2xlarge.2 8 16 7/3 80 4 4 KVM kc1.3xlarge.2 12 24 9/4.5 110 4 5 KVM kc1.4xlarge.2 16 32 12/6 140 4 6 KVM kc1.6xlarge.2 24 48 15/8.5 200 8 6 KVM kc1.8xlarge.2 32 64 18/10 260 8 6 KVM kc1.12xlarge.2 48 96 25/16 350 16 6 KVM kc1.15xlarge.2 60 120 30/20 400 16 6 KVM kc1.large.4 2 8 3/0.8 30 2 2 KVM kc1.xlarge.4 4 16 5/1.5 50 2 3 KVM kc1.2xlarge.4 8 32 7/3 80 4 4 KVM kc1.3xlarge.4 12 48 9/4.5 110 4 5 KVM kc1.4xlarge.4 16 64 12/6 140 4 6 KVM kc1.6xlarge.4 24 96 15/8.5 200 8 6 KVM kc1.8xlarge.4 32 128 18/10 260 8 6 KVM kc1.12xlarge.4 48 192 25/16 350 16 6 KVM 表33 kC1n型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 kc1n.2xlarge.4 8 32 7/3 80 4 4 KVM kc1n.4xlarge.2 16 32 12/6 140 4 6 KVM kc1n.4xlarge.4 16 64 12/6 140 4 6 KVM kc1n.12xlarge.2 48 96 25/16 350 16 6 KVM kc1n.12xlarge.4 48 192 25/16 350 16 6 KVM
  • 磁盘增强型 磁盘增强型弹性云服务器自带高存储带宽和IOPS的本地盘,具有高存储IOPS以及读写带宽的优势。同时,本地盘的价格更加低廉,在海量数据存储场景下,具备更高的性价比。 表28 磁盘增强型实例特点 规格名称 计算 网络 支持集群类型 磁盘增强型D7 CPU/内存配比:1:4 vCPU数量范围:4-72 处理器:第三代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:850万PPS 最大内网带宽:42Gbps CCE Standard集群 CCE Turbo集群 磁盘增强型D6 CPU/内存配比:1:4 vCPU数量范围:4-72 处理器:英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:900万PPS 最大内网带宽:44Gbps CCE Standard集群 CCE Turbo集群 表29 D7型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 本地盘 (GiB) 虚拟化类型 d7.xlarge.4 4 16 5/1.7 60 2 3 32 2 × 3600 KVM d7.2xlarge.4 8 32 10/3.5 120 4 4 64 4 × 3600 KVM d7.4xlarge.4 16 64 20/6.7 240 4 6 96 8 × 3600 KVM d7.6xlarge.4 24 96 25/10 350 8 8 128 12 × 3600 KVM d7.8xlarge.4 32 128 30/13.5 450 8 8 192 16 × 3600 KVM d7.12xlarge.4 48 192 40/20 650 16 8 256 24 × 3600 KVM d7.16xlarge.4 64 256 42/27 850 16 8 256 32 × 3600 KVM 表30 D6型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 本地盘 (GiB) 虚拟化类型 d6.xlarge.4 4 16 5/2 60 2 3 2 × 3600 KVM d6.2xlarge.4 8 32 10/4 120 4 4 4 × 3600 KVM d6.4xlarge.4 16 64 20/7.5 240 8 8 8 × 3600 KVM d6.6xlarge.4 24 96 25/11 350 8 8 12 × 3600 KVM d6.8xlarge.4 32 128 30/15 450 16 8 16 × 3600 KVM d6.12xlarge.4 48 192 40/22 650 16 8 24 × 3600 KVM d6.16xlarge.4 64 256 42/30 850 32 8 32 × 3600 KVM d6.18xlarge.4 72 288 44/34 900 32 8 36 × 3600 KVM
  • GPU加速型 GPU加速型云服务器(GPU Accelerated Cloud Server,GA CS )能够提供强大的浮点计算能力,从容应对高实时、高并发的海量计算场景。 GPU加速型云服务器包括G系列和P系列两类。其中: G系列:图形加速型弹性云服务器,适合于3D动画渲染、CAD等。 P系列:计算加速型或推理加速型弹性云服务器,适合于深度学习、科学计算、CAE等。 表21 GPU加速实例总览 类别 实例 GPU显卡 单卡Cuda Core数量 单卡GPU性能 使用场景 支持集群类型 图形加速型 G6 NVIDIA T4(GPU直通) 2560 8.1TFLOPS 单精度浮点计算 130INT8 TOPS 260INT4 TOPS 云桌面 、图像渲染、3D可视化、重载图形设计。 CCE Standard集群 图形加速型 G5 NVIDIA V100(GPU直通) 5120 14TFLOPS 单精度浮点计算 7TFLOPS 双精度浮点计算 112TFLOPS Tensor Core 深度学习加速 云桌面、图像渲染、3D可视化、重载图形设计。 CCE Standard集群 计算加速型 P2s NVIDIA V100 5120 14TFLOPS 单精度浮点计算 7TFLOPS 双精度浮点计算 112TFLOPS Tensor Core 深度学习加速 AI深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学。 CCE Standard集群 计算加速型 P2v NVIDIA V100 NVLink(GPU直通) 5120 15.7TFLOPS 单精度浮点计算 7.8TFLOPS 双精度浮点计算 125TFLOPS Tensor Core 深度学习加速 300GiB/s NVLINK 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 CCE Standard集群 推理加速型 Pi2 NVIDIA T4(GPU直通) 2560 8.1TFLOPS 单精度浮点计算 130INT8 TOPS 260INT4 TOPS 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 CCE Standard集群 推理加速型 Pi1 NVIDIA P4(GPU直通) 2560 5.5TFLOPS 单精度浮点计算 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 CCE Standard集群 表22 G6型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 GPU 显存 (GiB) 虚拟化类型 g6.xlarge.4 4 16 6/2 200 8 8 1 × T4 16 KVM g6.4xlarge.4 16 64 15/8 200 8 8 1 × T4 16 KVM g6.6xlarge.4 24 96 25/15 200 8 8 1 × T4 16 KVM g6.9xlarge.7 36 252 25/15 200 16 8 1 × T4 16 KVM g6.18xlarge.7 72 504 30/30 400 32 16 2 × T4 32 KVM 表23 G5型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU 显存 (GiB) 虚拟化类型 g5.8xlarge.4 32 128 25/15 200 16 1 × V100 16 KVM 表24 P2s型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 GPU GPU连接技术 显存(GiB) 虚拟化类型 p2s.2xlarge.8 8 64 10/4 50 4 4 1 × V100 PCIe Gen3 1 × 32GiB KVM p2s.4xlarge.8 16 128 15/8 100 8 8 2 × V100 PCIe Gen3 2 × 32GiB KVM p2s.8xlarge.8 32 256 25/15 200 16 8 4 × V100 PCIe Gen3 4 × 32GiB KVM p2s.16xlarge.8 64 512 30/30 400 32 8 8 × V100 PCIe Gen3 8 × 32GiB KVM 表25 P2v型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 GPU GPU连接技术 显存 (GiB) 虚拟化类型 p2v.2xlarge.8 8 64 10/4 50 4 4 1 × V100 - 1 × 16GiB KVM p2v.4xlarge.8 16 128 15/8 100 8 8 2 × V100 NVLink 2 × 16GiB KVM p2v.8xlarge.8 32 256 25/15 200 16 8 4 × V100 NVLink 4 × 16GiB KVM p2v.16xlarge.8 64 512 30/30 400 32 8 8 × V100 NVLink 8 × 16GiB KVM 表26 Pi2型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 GPU 显存 (GiB) 本地盘 虚拟化类型 pi2.2xlarge.4 8 32 10/4 50 4 4 1 × T4 1 × 16 - KVM pi2.4xlarge.4 16 64 15/8 100 8 8 2 × T4 2 × 16 - KVM pi2.8xlarge.4 32 128 25/15 200 16 8 4 × T4 4 × 16 - KVM 表27 Pi1型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 GPU 显存 (GiB) 本地盘 虚拟化类型 pi1.2xlarge.4 8 32 5/1.6 40 2 1 × P4 1 × 8GiB - KVM pi1.4xlarge.4 16 64 8/3.2 70 4 2 × P4 2 × 8GiB - KVM pi1.8xlarge.4 32 128 10/6.5 140 8 4 × P4 4 × 8GiB - KVM
  • 通用入门型 通用入门型弹性云服务器性能受到基准性能和CPU积分的约束,适用于平时CPU都保持较低利用率而又需要瞬时冲高的场景,是成本最低的通用型实例。 使用积分机制不额外收取费用,详情请参见CPU积分计算方法。 表19 通用入门型实例特点 规格名称 计算 网络 支持集群类型 通用入门型T6 CPU/内存配比:1:1/1:2/1:4 vCPU数量范围:2-16 处理器:英特尔® 至强® 可扩展处理器 基频/睿频:2.2GHz/3.0GHz 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:60万PPS 最大内网带宽:3Gbps CCE Standard集群 表20 T6型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 基准CPU计算性能(%) 平均基准CPU计算性能(%) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡个数上限 虚拟化类型 t6.xlarge.1 4 4 80 20 1/0.2 20 2 KVM t6.2xlarge.1 8 8 120 15 2/0.4 40 2 KVM t6.4xlarge.1 16 16 240 15 3/0.8 60 2 KVM t6.large.2 2 4 40 20 0.5/0.1 10 1 KVM t6.xlarge.2 4 8 80 20 1/0.2 20 2 KVM t6.2xlarge.2 8 16 120 15 2/0.4 40 2 KVM t6.4xlarge.2 16 32 240 15 3/0.8 60 2 KVM t6.large.4 2 8 40 20 0.5/0.1 10 1 KVM t6.xlarge.4 4 16 80 20 1/0.2 20 2 KVM t6.2xlarge.4 8 32 120 15 2/0.4 40 2 KVM
  • 内存优化型 内存优化型弹性云服务器可应对大型内存数据集和高网络场景。适用于内存要求高,数据量大并且数据访问量大,同时要求快速的数据交换和处理。 表14 内存优化型实例特点 规格名称 计算 网络 支持集群类型 内存优化型M7 CPU/内存配比:1:8 vCPU数量范围:2-128 处理器:第三代英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.5GHz 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:1200万PPS 最大内网带宽:42Gbps CCE Standard集群 CCE Turbo集群 内存优化型M6ne CPU/内存配比:1:8 vCPU数量范围:2-64 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.4GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:1000万PPS 最大内网带宽:40Gbps CCE Turbo集群 内存优化型M6 CPU/内存配比:1:8 vCPU数量范围:2-64 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.4GHz 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:1000万PPS 最大内网带宽:40Gbps CCE Standard集群 内存优化型M3 CPU/内存配比:1:8 vCPU数量范围:2-60 处理器:英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.4GHz 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:500万PPS 最大内网带宽:17Gbps CCE Standard集群 表15 M7型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 虚拟化类型 m7.large.8 2 16 4/0.8 40 2 2 16 基于擎天架构的自研极简虚拟化 m7.xlarge.8 4 32 8/1.6 80 2 3 32 m7.2xlarge.8 8 64 15/3 150 4 4 64 m7.3xlarge.8 12 96 17/5 200 4 6 96 m7.4xlarge.8 16 128 20/6 280 8 8 128 m7.6xlarge.8 24 192 25/9 400 8 8 192 m7.8xlarge.8 32 256 30/12 550 16 8 256 m7.12xlarge.8 48 384 35/18 750 16 8 256 m7.16xlarge.8 64 512 36/24 1000 28 8 256 m7.24xlarge.8 96 768 40/36 1100 32 8 256 m7.32xlarge.8 128 1024 42/40 1200 32 8 256 表16 M6ne型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 m6ne.large.8 2 16 4/1.2 40 2 2 16 m6ne.xlarge.8 4 32 8/2.4 80 2 3 32 m6ne.2xlarge.8 8 64 15/4.5 150 4 4 64 m6ne.3xlarge.8 12 96 17/7 200 4 6 96 m6ne.4xlarge.8 16 128 20/9 280 8 8 128 m6ne.6xlarge.8 24 192 25/14 400 8 8 192 m6ne.8xlarge.8 32 256 30/18 550 16 8 256 m6ne.16xlarge.8 64 512 40/36 1000 32 8 256 表17 M6型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 m6.large.8 2 16 4/1.2 40 2 2 KVM m6.xlarge.8 4 32 8/2.4 80 2 3 KVM m6.2xlarge.8 8 64 15/4.5 150 4 4 KVM m6.3xlarge.8 12 96 17/7 200 4 6 KVM m6.4xlarge.8 16 128 20/9 280 8 8 KVM m6.6xlarge.8 24 192 25/14 400 8 8 KVM m6.8xlarge.8 32 256 30/18 550 16 8 KVM m6.12xlarge.8 48 384 35/27 750 16 8 KVM m6.16xlarge.8 64 512 40/36 1000 32 8 KVM m6.22xlarge.8.physical 88 768 40/40 1000 16 33 裸金属 表18 M3型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 虚拟化类型 m3.large.8 2 16 1.5/0.6 30 2 KVM m3.xlarge.8 4 32 3/1.1 50 2 KVM m3.2xlarge.8 8 64 5/2 90 4 KVM m3.3xlarge.8 12 96 8/3.5 110 4 KVM m3.4xlarge.8 16 128 10/4.5 130 4 KVM m3.6xlarge.8 24 192 12/6.5 200 8 KVM m3.8xlarge.8 32 256 15/9 260 8 KVM m3.15xlarge.8 60 512 17/17 500 16 KVM
  • 通用型 通用型弹性云服务器提供基本水平的vCPU性能、平衡的计算、内存和网络资源,同时可根据工作负载的需要实现性能的突增,具有短期发挥更高性能的能力。 表8 通用型实例特点 规格名称 计算 网络 支持集群类型 通用计算型S7 CPU/内存配比:1:2/1:4 vCPU数量范围:2-8 处理器:第三代英特尔® 至强® 可扩展处理器 基频/睿频:2.8GHz/3.5GHz 支持IPv6 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:50万PPS 最大内网带宽:3Gbps CCE Standard集群 CCE Turbo集群 通用计算型S6 CPU/内存配比:1:2/1:4 vCPU数量范围:2-8 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 支持IPv6 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:50万PPS 最大内网带宽:3Gbps CCE Standard集群 通用计算型Sn3 CPU/内存配比:1:2/1:4 vCPU数量范围:2-16 处理器:英特尔® 至强® 可扩展处理器 基频/睿频:2.2GHz/3.0GHz 支持IPv6 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:50万PPS 最大内网带宽:3Gbps CCE Standard集群 通用计算型S3 CPU/内存配比:1:2/1:4 vCPU数量范围:2-16 处理器:英特尔® 至强® 可扩展处理器 基频/睿频:2.2GHz/3.0GHz 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:30万PPS 最大内网带宽:4Gbps CCE Standard集群 通用计算型S2 CPU/内存配比:1:2/1:4 vCPU数量范围:2-32 处理器:英特尔® 至强® 处理器E5 v4家族 基频/睿频:2.4GHz/3.3GHz 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:50万PPS 最大内网带宽:6Gbps CCE Standard集群 表9 S7型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 虚拟化类型 s7.large.2 2 4 1.5/0.2 15 1 2 8 KVM s7.xlarge.2 4 8 2/0.35 25 1 2 16 KVM s7.2xlarge.2 8 16 3/0.75 50 2 2 32 KVM s7.large.4 2 8 1.5/0.2 15 1 2 8 KVM s7.xlarge.4 4 16 2/0.35 25 1 2 16 KVM s7.2xlarge.4 8 32 3/0.75 50 2 2 32 KVM 表10 S6型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 s6.large.2 2 4 1.5/0.2 15 1 2 KVM s6.xlarge.2 4 8 2/0.35 25 1 2 KVM s6.2xlarge.2 8 16 3/0.75 50 2 2 KVM s6.large.4 2 8 1.5/0.2 15 1 2 KVM s6.xlarge.4 4 16 2/0.35 25 1 2 KVM s6.2xlarge.4 8 32 3/0.75 50 2 2 KVM 表11 Sn3型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 sn3.large.2 2 4 1.5/0.35 15 1 2 KVM sn3.xlarge.2 4 8 2/0.7 25 1 2 KVM sn3.2xlarge.2 8 16 3/1.3 50 2 2 KVM sn3.4xlarge.2 16 32 6/2.5 100 4 2 KVM sn3.large.4 2 8 1.5/0.35 15 1 2 KVM sn3.xlarge.4 4 16 2/0.7 25 1 2 KVM sn3.2xlarge.4 8 32 3/1.3 50 2 2 KVM sn3.4xlarge.4 16 64 6/2.5 100 4 2 KVM 表12 S3型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 虚拟化类型 s3.large.2 2 4 0.8/0.2 10 1 KVM s3.xlarge.2 4 8 1.5/0.4 15 1 KVM s3.2xlarge.2 8 16 3/0.8 20 2 KVM s3.4xlarge.2 16 32 4/1.5 30 4 KVM s3.large.4 2 8 0.8/0.2 10 1 KVM s3.xlarge.4 4 16 1.5/0.4 15 1 KVM s3.2xlarge.4 8 32 3/0.8 20 2 KVM s3.4xlarge.4 16 64 4/1.5 30 4 KVM 表13 S2型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 虚拟化类型 s2.large.2 2 4 0.8/0.2 10 1 KVM s2.xlarge.2 4 8 1.5/0.4 15 1 KVM s2.2xlarge.2 8 16 3/0.8 20 2 KVM s2.4xlarge.2 16 32 4/1.5 30 4 KVM s2.8xlarge.2 32 64 6/3 50 8 KVM s2.large.4 2 8 0.8/0.2 10 1 KVM s2.xlarge.4 4 16 1.5/0.4 15 1 KVM s2.2xlarge.4 8 32 3/0.8 20 2 KVM s2.4xlarge.4 16 64 4/1.5 30 4 KVM s2.8xlarge.4 32 128 6/3 50 8 KVM
  • 通用计算增强型 通用计算增强型弹性云服务器是CPU独享型实例,实例间无CPU资源争抢,性能强劲稳定,搭载全新网络加速引擎,提供更高的网络性能。 表1 通用计算增强型实例特点 规格名称 计算 网络 支持集群类型 通用计算增强型aC7 CPU/内存配比:1:2/1:4 vCPU数量范围:2-232 基频/睿频:2.45GHz/3.5GHz 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:2000万PPS 最大内网带宽:100Gbps CCE Standard集群 CCE Turbo集群 通用计算增强型C7 CPU/内存配比:1:2/1:4 vCPU数量范围:2-128 处理器:第三代英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.5GHz、2.8GHz/3.5GHz 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:1200万PPS 最大内网带宽:42Gbps CCE Standard集群 CCE Turbo集群 通用计算增强型C6ne CPU/内存配比:1:2/1:4 vCPU数量范围:2-64 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.4GHz 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:1000万PPS 最大内网带宽:40Gbps CCE Turbo集群 通用计算增强型C6s CPU/内存配比:1:2 vCPU数量范围:2-64 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:850万PPS 最大内网带宽:30Gbps CCE Standard集群 通用计算增强型C6 CPU/内存配比:1:2/1:4 vCPU数量范围:2-88 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.4GHz 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:1200万PPS 最大内网带宽:44Gbps CCE Standard集群 通用计算增强型C3 CPU/内存配比:1:2/1:4 vCPU数量范围:2-60 处理器:英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.4GHz 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:500万PPS 最大内网带宽:16Gbps CCE Standard集群 表2 aC7型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 虚拟化类型 ac7.large.2 2 4 2/1 40 2 2 16 KVM ac7.xlarge.2 4 8 3/1.5 60 2 3 32 ac7.2xlarge.2 8 16 4/2.5 100 4 4 64 ac7.3xlarge.2 12 24 6/4 150 4 6 96 ac7.4xlarge.2 16 32 8/5 200 8 8 128 ac7.6xlarge.2 24 48 12/6 250 8 8 192 ac7.8xlarge.2 32 64 15/8 300 16 8 256 ac7.12xlarge.2 48 96 22/12 400 16 8 256 ac7.16xlarge.2 64 128 28/16 550 24 12 256 ac7.24xlarge.2 96 192 40/25 800 24 12 256 ac7.29xlarge.2 116 216 50/30 950 32 16 256 ac7.32xlarge.2 128 256 55/35 1000 32 16 256 ac7.48xlarge.2 192 384 100/80 1600 32 16 256 ac7.58xlarge.2 232 432 120/100 2000 32 16 256 ac7.large.4 2 8 2/1 40 2 2 16 ac7.xlarge.4 4 16 3/1.5 60 2 3 32 ac7.2xlarge.4 8 32 4/2.5 100 4 4 64 ac7.3xlarge.4 12 48 6/4 150 4 6 96 ac7.4xlarge.4 16 64 8/5 200 8 8 128 ac7.6xlarge.4 24 96 12/6 250 8 8 192 ac7.8xlarge.4 32 128 15/8 300 16 8 256 ac7.12xlarge.4 48 192 22/12 400 16 8 256 ac7.16xlarge.4 64 256 28/16 550 24 12 256 ac7.24xlarge.4 96 384 40/25 800 24 12 256 ac7.29xlarge.4 116 464 50/30 950 32 16 256 ac7.32xlarge.4 128 512 55/35 1000 32 16 256 ac7.48xlarge.4 192 768 100/80 1600 32 16 256 ac7.58xlarge.4 232 928 120/100 2000 32 16 256 表3 C7型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 虚拟化类型 c7.large.2 2 4 4/0.8 40 2 2 16 基于QingTian架构的自研极简虚拟化 c7.xlarge.2 4 8 8/1.6 80 2 3 32 c7.2xlarge.2 8 16 15/3 150 4 4 64 c7.3xlarge.2 12 24 17/5 200 4 6 96 c7.4xlarge.2 16 32 20/6 280 8 8 128 c7.6xlarge.2 24 48 25/9 400 8 8 192 c7.8xlarge.2 32 64 30/12 550 16 8 256 c7.12xlarge.2 48 96 35/18 750 16 8 256 c7.16xlarge.2 64 128 36/24 1000 28 8 256 c7.24xlarge.2 96 192 40/36 1100 32 8 256 c7.32xlarge.2 128 256 42/40 1200 32 8 256 c7.large.4 2 8 4/0.8 40 2 2 16 c7.xlarge.4 4 16 8/1.6 80 2 3 32 c7.2xlarge.4 8 32 15/3 150 4 4 64 c7.3xlarge.4 12 48 17/5 200 4 6 96 c7.4xlarge.4 16 64 20/6 280 8 8 128 c7.6xlarge.4 24 96 25/9 400 8 8 192 c7.8xlarge.4 32 128 30/12 550 16 8 256 c7.12xlarge.4 48 192 35/18 750 16 8 256 c7.16xlarge.4 64 256 36/24 1000 28 8 256 c7.24xlarge.4 96 384 40/36 1100 32 8 256 c7.32xlarge.4 128 512 42/40 1200 32 8 256 表4 C6ne型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 辅助网卡个数上限 c6ne.large.2 2 4 4/1.2 40 2 2 16 c6ne.large.4 2 8 4/1.2 40 2 2 16 c6ne.xlarge.2 4 8 8/2.4 80 2 3 32 c6ne.xlarge.4 4 16 8/2.4 80 2 3 32 c6ne.2xlarge.2 8 16 15/4.5 150 4 4 64 c6ne.2xlarge.4 8 32 15/4.5 150 4 4 64 c6ne.3xlarge.2 12 24 17/7 200 4 6 96 c6ne.3xlarge.4 12 48 17/7 200 4 6 96 c6ne.4xlarge.2 16 32 20/9 280 8 8 128 c6ne.4xlarge.4 16 64 20/9 280 8 8 128 c6ne.6xlarge.2 24 48 25/14 400 8 8 192 c6ne.6xlarge.4 24 96 25/14 400 8 8 192 c6ne.8xlarge.2 32 64 30/18 550 16 8 256 c6ne.8xlarge.4 32 128 30/18 550 16 8 256 c6ne.12xlarge.2 48 96 35/27 750 16 8 256 c6ne.12xlarge.4 48 192 35/27 750 16 8 256 c6ne.16xlarge.2 64 128 40/36 1,000 32 8 256 c6ne.16xlarge.4 64 256 40/36 1,000 32 8 256 表5 C6s型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 c6s.large.2 2 4 1/1 30 2 2 KVM c6s.xlarge.2 4 8 2/2 60 2 3 KVM c6s.2xlarge.2 8 16 4/4 120 4 4 KVM c6s.3xlarge.2 12 24 5.5/5.5 180 4 6 KVM c6s.4xlarge.2 16 32 7.5/7.5 240 8 8 KVM c6s.6xlarge.2 24 48 11/11 350 8 8 KVM c6s.8xlarge.2 32 64 15/15 450 16 8 KVM c6s.12xlarge.2 48 96 22/22 650 16 8 KVM c6s.16xlarge.2 64 128 30/30 850 32 8 KVM 表6 C6型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 c6.large.2 2 4 4/1.2 40 2 2 KVM/QingTian虚拟化 c6.xlarge.2 4 8 8/2.4 80 2 3 KVM/QingTian虚拟化 c6.2xlarge.2 8 16 15/4.5 150 4 4 KVM/QingTian虚拟化 c6.3xlarge.2 12 24 17/7 200 4 6 KVM/QingTian虚拟化 c6.4xlarge.2 16 32 20/9 280 8 8 KVM/QingTian虚拟化 c6.6xlarge.2 24 48 25/14 400 8 8 KVM/QingTian虚拟化 c6.8xlarge.2 32 64 30/18 550 16 8 KVM/QingTian虚拟化 c6.12xlarge.2 48 96 35/27 750 16 8 KVM/QingTian虚拟化 c6.16xlarge.2 64 128 40/36 1000 32 8 KVM/QingTian虚拟化 c6.22xlarge.2 88 176 44/40 1200 28 8 KVM/QingTian虚拟化 c6.22xlarge.2.physical 88 192 44/40 1000 16 33 裸金属 c6.large.4 2 8 4/1.2 40 2 2 KVM/QingTian虚拟化 c6.xlarge.4 4 16 8/2.4 80 2 3 KVM/QingTian虚拟化 c6.2xlarge.4 8 32 15/4.5 150 4 4 KVM/QingTian虚拟化 c6.3xlarge.4 12 48 17/7 200 4 6 KVM/QingTian虚拟化 c6.4xlarge.4 16 64 20/9 280 8 8 KVM/QingTian虚拟化 c6.6xlarge.4 24 96 25/14 400 8 8 KVM/QingTian虚拟化 c6.8xlarge.4 32 128 30/18 550 16 8 KVM/QingTian虚拟化 c6.12xlarge.4 48 192 35/27 750 16 8 KVM/QingTian虚拟化 c6.16xlarge.4 64 256 40/36 1000 32 8 KVM/QingTian虚拟化 c6.22xlarge.4 88 352 44/40 1200 28 8 KVM/QingTian虚拟化 c6.22xlarge.4.physical 88 384 44/40 1000 16 33 裸金属 表7 C3型弹性云服务器的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽 (Gbps) 最大收发包能力 (万PPS) 网卡多队列数 虚拟化类型 c3.large.2 2 4 1.5/0.6 30 2 KVM c3.xlarge.2 4 8 3/1 50 2 KVM c3.2xlarge.2 8 16 5/2 90 4 KVM c3.3xlarge.2 12 24 7/3 110 4 KVM c3.4xlarge.2 16 32 10/4 130 4 KVM c3.6xlarge.2 24 48 12/6 200 8 KVM c3.8xlarge.2 32 64 15/8 260 8 KVM c3.15xlarge.2 60 128 16/16 500 16 KVM c3.large.4 2 8 1.5/0.6 30 2 KVM c3.xlarge.4 4 16 3/1 50 2 KVM c3.2xlarge.4 8 32 5/2 90 4 KVM c3.3xlarge.4 12 48 7/3 110 4 KVM c3.4xlarge.4 16 64 10/4 130 4 KVM c3.6xlarge.4 24 96 12/6 200 8 KVM c3.8xlarge.4 32 128 15/8 260 8 KVM c3.15xlarge.4 60 256 16/16 500 16 KVM
  • 配置管理 为方便对CCE集群中的Kubernetes配置参数进行管理,CCE提供了配置管理功能,通过该功能您可以对核心组件进行深度配置,更多信息请参见kubelet。 仅支持在v1.15及以上版本的集群中对节点池进行配置,V1.15以下版本不显示该功能。 登录CCE控制台。 单击集群名称进入集群,在左侧选择“节点管理”,在右侧选择“节点池”页签。 单击节点池名称后的“配置管理”。 在侧边栏滑出的“配置管理”窗口中,根据业务需求修改Kubernetes的参数值: 表1 kubelet组件配置 名称 参数 参数说明 取值 修改说明 CPU管理策略配置 cpu-manager-policy CPU管理策略配置,详情请参见CPU调度。 none:关闭工作负载实例独占CPU的功能,优点是CPU共享池的可分配核数较多。 static:开启工作负载实例独占CPU,适用于对CPU缓存和调度延迟敏感的场景。 enhanced-static:在支持CPU独占的基础上,增强支持给Burstable Pods配置CPU优先使用核,适用于波峰、波谷相差大且大部分时间处于波谷状态的工作负载。 默认:none - 请求至kube-apiserver的QPS配置 kube-api-qps 与APIServer通信的每秒查询个数。 默认:100 - 请求至kube-apiserver的Burst配置 kube-api-burst 每秒发送到APIServer的突发请求数量上限。 默认:100 - kubelet管理的Pod上限 max-pods Node能运行的Pod最大数量。 CCE Standard集群:由节点最大实例数设置决定。 CCE Turbo集群:由节点网卡数量决定。 - 限制Pod中的进程数 pod-pids-limit 每个Pod中可使用的PID个数上限。 默认:-1,表示不限制 - 是否使用本地IP作为该节点的ClusterDNS with-local-dns 开启后,会自动在节点的kubelet配置中添加节点默认网卡IP作为首选 DNS地址 。 默认:关闭(参数值为false) - 事件创建QPS限制 event-qps 每秒可生成的事件数量。 默认:5 - 事件创建的个数的突发峰值上限 event-burst 突发性事件创建的上限值,允许突发性事件创建临时上升到所指定数量。 默认:10 - 允许使用的不安全系统配置 allowed-unsafe-sysctls 允许使用的不安全系统配置。 CCE从1.17.17集群版本开始,kube-apiserver开启了pod安全策略,需要在pod安全策略的allowedUnsafeSysctls中增加相应的配置才能生效(1.17.17以下版本的集群可不配置)。详情请参见Pod安全策略开放非安全系统配置示例。 默认:[] - 节点超卖特性 over-subscription-resource 节点超卖特性。 设置为true表示开启节点超卖特性,节点超卖的特性请参见动态资源超卖。 集群版本为v1.23.9-r0、v1.25.4-r0以下:默认为开启(参数值为true) 集群版本为v1.23.9-r0、v1.25.4-r0、v1.27-r0、v1.28.1-r0及以上:默认为关闭(参数值为false) - 节点混部特性 colocation 节点混部特性。 设置为true表示开启节点混部特性,节点混部的特性请参见动态资源超卖。 集群版本为v1.23.9-r0、v1.25.4-r0以下:默认为开启(参数值为true) 集群版本为v1.23.9-r0、v1.25.4-r0、v1.27-r0、v1.28.1-r0及以上:默认为关闭(参数值为false) - 拓扑管理策略 topology-manager-policy 设置拓扑管理策略。 合法值包括: restricted:kubelet 仅接受在所请求资源上实现最佳 NUMA对齐的Pod。 best-effort:kubelet会优先选择在 CPU 和设备资源上实现NUMA对齐的Pod。 none(默认):不启用拓扑管理策略。 single-numa-node:kubelet仅允许在 CPU和设备资源上对齐到同一NUMA节点的Pod。 默认:none 须知: 请谨慎修改,修改topology-manager-policy和topology-manager-scope会重启kubelet,并且以更改后的策略重新计算容器实例的资源分配,这有可能导致已经运行的容器实例重启甚至无法进行资源分配。 拓扑管理策略的资源对齐粒度 topology-manager-scope 设置拓扑管理策略的资源对齐粒度。合法值包括: container (默认):对齐粒度为容器级 pod:对齐粒度为Pod级 默认:container 容器指定DNS解析配置文件 resolv-conf 容器指定DNS解析配置文件 默认为空值 - 除长期运行的请求之外所有运行时请求的超时时长 runtime-request-timeout 除长期运行的请求(pull、 logs、exec和attach)之外所有运行时请求的超时时长。 默认为2m0s v1.21.10-r0、v1.23.8-r0、v1.25.3-r0及以上版本的集群支持该参数。 是否让kubelet每次仅拉取一个镜像 serialize-image-pulls 串行拉取镜像。 关闭:建议值,以支持并行拉取镜像,提高Pod启动速度。 开启:支持串行拉取镜像。 集群版本为v1.21.12-r0、v1.23.11-r0、v1.25.6-r0、v1.27.3-r0、v1.28.1-r0以下:默认为开启(参数值为true) 集群版本为v1.21.12-r0、v1.23.11-r0、v1.25.6-r0、v1.27.3-r0、v1.28.1-r0及以上:默认为关闭(参数值为false) v1.21.10-r0、v1.23.8-r0、v1.25.3-r0及以上版本的集群支持该参数。 每秒钟可以执行的镜像仓库拉取操作限值 registry-pull-qps 镜像仓库的QPS上限。 默认为5 取值范围为1~50 v1.21.10-r0、v1.23.8-r0、v1.25.3-r0及以上版本的集群支持该参数。 突发性镜像拉取的上限值 registry-burst 突发性镜像拉取的上限值,允许镜像拉取临时上升到所指定数量。 默认为10 取值范围为1~100,且取值必须大于等于registry-pull-qps的值。 v1.21.10-r0、v1.23.8-r0、v1.25.3-r0及以上版本的集群支持该参数。 容器的日志文件个数上限 container-log-max-files 每个容器日志文件的最大数量。当存在的日志文件数量超过这个值时,最旧的日志文件将被删除,以便为新的日志留出空间。 默认为10 取值范围为2~100 v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上版本的集群支持该参数。 容器日志文件在轮换生成新文件时之前的最大值 container-log-max-size 每个容器的日志文件的最大大小。当日志文件达到这个大小时,将会触发日志轮换即关闭当前日志文件并创建新的日志文件以继续记录。 默认为50Mi 取值范围为1Mi~4096Mi v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上版本的集群支持该参数。 镜像垃圾回收上限百分比 image-gc-high-threshold 当kubelet磁盘达到多少时,kubelet开始回收镜像。 默认为80 取值范围为1~100 如果需要禁用镜像垃圾回收,请将该参数设置为100。 v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上版本的集群支持该参数。 镜像垃圾回收下限百分比 image-gc-low-threshold 回收镜像时当磁盘使用率减少至多少时停止回收。 默认为70 取值范围为1~100 该参数取值不得大于镜像垃圾回收上限百分比。 v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上版本的集群支持该参数。 节点内存预留 system-reserved-mem 系统内存预留,目的是为OS系统守护进程(如 sshd、udev 等)预留内存资源。 默认值:自动计算预留内存数,预留值随节点规格变动,具体请参见节点预留资源策略说明 可选配置如下: 自动计算预留内存数:建议使用自动计算预留内存数,以保证节点的稳定性。 预留值随节点规格变动,具体请参见节点预留资源策略说明。 自定义预留内存数:自定义节点预留内存分布。 kube-reserved-mem,system-reserved-mem之和小于节点池中节点最小内存规格的50%。 kube-reserved-mem Kubernetes组件内存预留,目的是为Kubernetes系统守护进程(如kubelet、container runtime等)预留内存资源。 evictionHard 硬驱逐配置项 memory.available 节点可用内存值 固定为100Mi 关于节点压力驱逐详情请参考节点压力驱逐。 须知: 驱逐配置项相关配置请谨慎修改,不合理的配置可能会导致节点频繁触发驱逐或节点已过载但未触发驱逐。 kubelet可识别以下两个特定的文件系统标识符: nodefs:节点的主要文件系统,用于本地磁盘卷、不受内存支持的 emptyDir 卷、日志存储等。 例如,nodefs 包含 /var/lib/kubelet/。 imagefs:容器引擎使用的文件系统分区。 对于共享数据盘,kubelet和容器引擎共用磁盘空间,此类场景建议仅配置nodefs驱逐信号门限或imagefs与nodefs门限配置一致。 nodefs.available Kubelet 使用的文件系统的可用容量的百分比 默认10% 取值范围为1%~99% nodefs.inodesFree Kubelet 使用的文件系统的可用inodes数的百分比 默认5% 取值范围为1%~99% imagefs.available 容器运行时存放镜像等资源的文件系统的可用容量的百分比 默认10% 取值范围为1%~99% imagefs.inodesFree 容器运行时存放镜像等资源的文件系统的可用inodes数的百分比 默认为空,不设置 取值范围为1%~99% pid.available 留给分配 Pod 使用的可用 PID 数的百分比 默认10% 取值范围为1%~99% evictionSoft 软驱逐配置项 memory.available 节点可用内存值。 设置值要求大于相同参数的硬驱逐配置值,且需同时配置对应的驱逐宽限期(evictionSoftGracePeriod)。 默认为空,不设置 取值范围为100Mi~1000000Mi nodefs.available Kubelet 使用的文件系统的可用容量的百分比。 设置值要求大于相同参数的硬驱逐配置值,且需同时配置对应的驱逐宽限期(evictionSoftGracePeriod)。 默认为空,不设置 取值范围为1%~99% nodefs.inodesFree Kubelet 使用的文件系统的可用inodes数的百分比。 设置值要求大于相同参数的硬驱逐配置值,且需同时配置对应的驱逐宽限期(evictionSoftGracePeriod)。 默认为空,不设置 取值范围为1%~99% imagefs.available 容器运行时存放镜像等资源的文件系统的可用容量的百分比。 设置值要求大于相同参数的硬驱逐配置值,且需同时配置对应的驱逐宽限期(evictionSoftGracePeriod)。 默认为空,不设置 取值范围为1%~99% imagefs.inodesFree 容器运行时存放镜像等资源的文件系统的可用inodes数的百分比。 设置值要求大于相同参数的硬驱逐配置值,且需同时配置对应的驱逐宽限期(evictionSoftGracePeriod)。 默认为空,不设置 取值范围为1%~99% pid.available 留给分配 Pod 使用的可用 PID 数的百分比。 设置值要求大于相同参数的硬驱逐配置值,且需同时配置对应的驱逐宽限期(evictionSoftGracePeriod)。 默认为空,不设置 取值范围为1%~99% 表2 kube-proxy组件配置 名称 参数 参数说明 取值 修改说明 系统中最大的连接跟踪表项数目 conntrack-min 系统中最大的连接跟踪表项数目。 可通过以下命令查询: sysctl -w net.nf_conntrack_max 默认:131072 - TCP连接在关闭状态下等待的时间 conntrack-tcp-timeout-close-wait 控制TCP连接在关闭状态下等待的时间。 可通过以下命令查询: sysctl -w net.netfilter.nf_conntrack_tcp_timeout_close_wait 默认:1h0m0s - 表3 网络组件配置(仅CCE Turbo集群可见) 名称 参数 参数说明 取值 修改说明 节点池网卡预热参数配置开关 enable-node-nic-configuration 是否开启节点池级别的网卡预热。 默认:关闭 节点池网络组件配置开关关闭后,节点池容器网卡动态预热参数将与集群级别保持一致。 nic-threshold nic-threshold 节点池级别的节点绑定容器网卡数低水位:节点绑定容器网卡数高水位 默认:0:0 说明: 此参数配置废弃中,请采用其他4个容器网卡动态预热参数。 节点池级别的节点最少绑定容器网卡数 nic-minimum-target 保障节点最少有多少张容器网卡绑定在节点上。 参数值需为正整数。例如10,表示节点最少有10张容器网卡绑定在节点上。当超过节点的容器网卡配额时,后台取值为节点的容器网卡配额。 默认:10 建议配置为大部分节点平时日常运行的Pod数。 节点池级别的节点预热容器网卡上限检查值 nic-maximum-target 当节点绑定的容器网卡数超过节点预热容器网卡上限检查值(nic-maximum-target),不再主动预热容器网卡。 当该参数大于等于节点最少绑定容器网卡数(nic-minimum-target)时,则开启预热容器网卡上限值检查;反之,则关闭预热容器网卡上限值检查。 参数值需为正整数。例如0,表示关闭预热容器网卡上限值检查。当超过节点的容器网卡配额时,后台取值为节点的容器网卡配额。 默认:0 建议配置为大部分节点平时最多运行的Pod数。 节点池级别的节点动态预热容器网卡数 nic-warm-target 当Pod使用完节点最少绑定容器网卡数(nic-minimum-target)后,会始终额外预热多少张容器网卡,只支持数值配置。 当 节点动态预热容器网卡数(nic-warm-target) + 节点当前绑定的容器网卡数 大于 节点预热容器网卡上限检查值(nic-maximum-target) 时,只会预热nic-maximum-target与节点当前绑定的容器网卡数的差值。 默认:2 建议配置为大部分节点日常10s内会瞬时弹性扩容的Pod数。 节点池级别的节点预热容器网卡回收阈值 nic-max-above-warm-target 只有当 节点上空闲的容器网卡数 - 节点动态预热容器网卡数(nic-warm-target) 大于此阈值 时,才会触发预热容器网卡的解绑回收。只支持数值配置。 调大此值会减慢空闲容器网卡的回收,加快Pod的启动速度,但会降低IP地址的利用率,特别是在IP地址紧张的场景,请谨慎调大。 调小此值会加快空闲容器网卡的回收,提高IP地址的利用率,但在瞬时大量Pod激增的场景,部分Pod启动会稍微变慢。 默认:2 建议配置为大部分节点日常在分钟级时间范围内会频繁弹性扩容缩容的Pod数 - 大部分节点日常10s内会瞬时弹性扩容的Pod数。 表4 节点池Pod安全组配置(仅CCE Turbo集群可见) 名称 参数 参数说明 取值 修改说明 节点池上Pod默认使用的安全组 security_groups_for_nodepool 可填写安全组 ID,不配置则使用集群容器网络的默认安全组,并且最多可同时指定5个安全组ID,中间以英文分号(;)分隔。 优先级低于SecurityGroup资源对象配置的安全组。 - - 表5 容器引擎Docker配置(仅使用Docker的节点池可见) 名称 参数 参数说明 取值 修改说明 容器umask值 native-umask 默认值为normal,表示启动的容器umask值为0022。 默认:normal 不支持修改 单容器可用数据空间 docker-base-size 设置每个容器可使用的最大数据空间。 默认:0 不支持修改 不安全的镜像源地址 insecure-registry 是否允许使用不安全的镜像源地址。 false 不支持修改 容器core文件的大小限制 limitcore 容器core文件的大小限制,单位是Byte。 如果不设置大小限制,可设置为infinity。 默认:5368709120 - 容器内句柄数限制 default-ulimit-nofile 设置容器中可使用的句柄数上限。 默认:{soft}:{hard} 该值大小不可超过节点内核参数nr_open的值,且不能是负数。 节点内核参数nr_open可通过以下命令获取: sysctl -a | grep nr_open 镜像拉取超时时间 image-pull-progress-timeout 如果超时之前镜像没有拉取成功,本次镜像拉取将会被取消。 默认:1m0s 该参数在v1.25.3-r0版本开始支持 单次拉取镜像层的最大并发数 max-concurrent-downloads 设置拉取镜像层的最大并发数。 默认:3 取值范围为1~20 该参数如果设置过大,可能导致节点其他业务的网络性能受影响或导致磁盘IO和CPU增高。 v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上版本的集群支持该参数。 容器日志文件轮换生成新文件的最大值 max-size 容器日志文件开始转储的最大大小。当日志文件达到这个大小时,将会触发日志轮换即关闭当前日志文件并创建新的日志文件以继续记录。 默认为50Mi 取值范围为1Mi~4096Mi 该参数如果设置过小,可能导致重要日志信息的丢失;如果设置过大,则可能占用过多的磁盘空间。 v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上版本的集群支持该参数。 容器的日志文件个数上限 max-file 容器可以保留的日志文件的最大数量。当存在的日志文件数量超过这个值时,最旧的日志文件将被删除,以便为新的日志留出空间。 默认:20 取值范围为2~100 该参数如果设置过小,可能导致重要日志信息的丢失;如果设置过大,则可能占用过多的磁盘空间。 v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上版本的集群支持该参数。 表6 容器引擎Containerd配置(仅使用Containerd的节点池可见) 名称 参数 参数说明 取值 修改说明 单容器可用数据空间 devmapper-base-size 设置每个容器可使用的最大数据空间。 默认:0 不支持修改 容器core文件的大小限制 limitcore 容器core文件的大小限制,单位是Byte。 如果不设置大小限制,可设置为infinity。 默认:5368709120 - 容器内句柄数限制 default-ulimit-nofile 设置容器中可使用的句柄数上限。 默认:1048576 该值大小不可超过节点内核参数nr_open的值,且不能是负数。 节点内核参数nr_open可通过以下命令获取: sysctl -a | grep nr_open 镜像拉取超时时间 image-pull-progress-timeout 如果超时之前镜像没有拉取成功,本次镜像拉取将会被取消。 默认:1m0s 该参数在v1.25.3-r0版本开始支持 insecure_skip_verify insecure_skip_verify 跳过仓库证书验证。 默认:false 不支持修改 单次拉取镜像层的最大并发数 max-concurrent-downloads 设置拉取镜像层的最大并发数。 默认:3 取值范围为1~20 该参数如果设置过大,可能导致节点其他业务的网络性能受影响或导致磁盘IO和CPU增高。 v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上版本的集群支持该参数。 容器的最大日志行大小 max-container-log-line-size 是容器的最大日志行大小(以字节为单位)。超过限制的日志行将被分成多行。 默认:16384 取值范围为1~2097152 配置增大会增加containerd内存消耗。 v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上版本的集群支持该参数。 单击“确定”,完成配置操作。
  • 集群维度 集群诊断场景 诊断项 是否需要开通监控中心 修复方案 集群资源规划能力 集群Master节点是否高可用 是 集群为单控制节点,控制节点故障时,集群将不可用,进而会影响集群中运行服务的可靠性。提升服务韧性建议使用高可用集群,当高可用集群某个控制节点故障时,不影响集群业务。 集群当前时间CPU的Request水位是否超过80% 是 Request代表工作负载运行的最低资源要求,集群水位过高,剩余资源不能够满足新应用Request要求时,应用将不能被创建。需要根据业务情况,合理规划资源分配。详见设置容器规格。 集群当前时间内存的Request水位是否超过80% 是 集群版本是否超期 否 集群版本EOS后,云容器引擎(CCE)将不再支持对该版本的集群创建,同时不提供相应的技术支持,包含新特性更新、漏洞/问题修复、补丁升级以及工单指导、在线排查等客户支持,不再适用于CCE服务SLA保障。请前往CCE的集群管理页面,升级集群版本。详见集群升级指导。 集群运维能力 集群kube-prometheus-stack插件状态是否正常 否 云原生监控插件kube-prometheus-stack主要提供了集群运维监控的能力,要体验一站式监控体系,需前往插件市场,安装插件并检查插件状态。插件详情参见云原生监控插件 集群log-agent插件状态是否正常 否 运维插件log-agent提供了集群中负载的日志采集、日志管理的能力,体验日志管理能力,帮助集群中服务问题快速定位定界。需前往插件市场,安装插件并检查插件状态。 集群npd插件状态是否正常 否 运维插件npd(node-problem-detector)提供了节点异常监控的能力。如需体验节点监控能力,检查节点资源异常情况。需前往插件市场,安装插件并检查插件状态。详见CCE节点故障检测。 集群配置 安全组配置是否正确 否 集群安全组配置异常,直接影响节点之前的通信,导致节点不可用。请使用默认安全组配置。
  • 节点维度 集群诊断场景 诊断项 是否需要开通监控中心 修复方案 节点状态 节点状态是否就绪 是 节点为承载业务的核心资源,状态不就绪可能直接导致承载在节点上的业务受到影响,需立即修复。 节点状态不可调度 是 节点不可调度将导致节点资源不能被正常使用,请前往CCE节点管理,查看节点状态是否符合预期。 节点kubelet状态 是 kubelet为节点关键组件,不可用可能会导致节点异常,Pod状态不符合预期(与APIServer的Pod状态不一致)。可以到节点上通过如下命令查看kubelet日志,并分析异常原因。命令参考:journalctl -l -u kubelet 节点配置 节点当前时间内存的Requset水位是否超过80% 是 节点的Request水位将影响新应用能否被调度到该节点上。水位过高,剩余资源不满足应用要求时,该节点将不会被调度到。本诊断项已为您检测出了Request水位高出阈值的节点资源,可根据检测结果合理规划您的应用。 节点当前时间CPU的Request水位是否超过80% 是 节点资源水位诊断 节点24小时内CPU使用率最大值是否超过80% 是 节点的cpu过高将导致节点处理能力下降,影响节点上运行的服务。请前往监控中心,查询节点CPU使用状况,合理规划节点资源,或者对节点进行扩容。 节点24小时内内存使用率最大值是否超过80% 是 节点内存过高,存在节点OOM风险,影响节点上服务的可用性。请前往监控中心,查看节点内存使用状况,合理规划节点资源,或者对节点进行扩容。 节点磁盘使用率是否超过80% 是 节点磁盘使用率过高将影响系统Pod和业务Pod,请及时扩容。建议通过如下命令查看磁盘信息: lsblk 列出所有可用块设备的信息 df -h 列出挂载的每个磁盘中的可用磁盘空间量 fdisk -l 列出所有的分区 节点PID使用量是否正常 是 节点PID出现压力,可能导致节点不稳定,需释放无用进程或者修改PID上限。可以通过如下命令查看PID信息。 查看最大PID数:sysctl kernel.pid_max 查看当前的最大PID:ps -eLf|awk '{print $2}' | sort -rn| head -n 1 查看占用SPID最多的前5个进程:ps -elT | awk '{print $4}' | sort | uniq -c | sort -k1 -g | tail -5 节点24小时内是否发生OOM事件 是 节点出现OOM将使节点中的服务功能受损,可前往监控中心分析内存运行状况,合理规划资源,或者进行扩容。
  • 自定义容器网络配置(CCE Turbo集群支持) 如您期望不同的命名空间或工作负载使用不同的子网网段或安全组,可创建一条策略,将子网/安全组信息和命名空间或工作负载进行绑定,详情请参见为命名空间/工作负载绑定子网及安全组。 容器绑定子网:Pod IP会被约束在特定的网段中,不同命名空间或工作负载之间可实现网络隔离。 容器绑定安全组:支持为同一命名空间或工作负载的Pod设置安全组规则,实现自定义访问策略。 仅CCE Turbo集群支持该配置。
  • 集群容器网络预热配置(CCE Turbo集群支持) CCE Turbo集群会为每个Pod分配(申请并绑定)一张弹性网卡或辅助弹性网卡。容器场景下Pod支持极速弹性,而网卡创建绑定需要一定时间,影响了大规模批创场景下的容器启动速度。系统默认提供了容器网卡动态预热的能力,在尽可能提高IP的资源利用率的前提下,加快Pod的启动速度。集群预热配置为您的集群设置全局的预热策略,集群节点默认会根据集群预热配置选项进行容器网卡的预热。如您期望为一组节点设置独立的预热策略,建议您配置节点池预热。 仅CCE Turbo集群支持该配置。 是否启用容器网络全预热: 开启:开启容器网络全预热后,您的集群节点会预热申请节点规格上限的网卡数,如s7.large.2机型的节点辅助弹性网卡上限是16个,则系统会动态预热出16个辅助弹性网卡。 关闭:不启用容器网络全预热时,您可以自行定义预热参数。 表3 容器网卡动态预热参数 容器网卡动态预热参数 默认值 参数说明 配置建议 节点最少绑定容器网卡数(nic-minimum-target) 10 保障节点最少有多少张容器网卡绑定在节点上。 参数值需为正整数。例如10,表示节点最少有10张容器网卡绑定在节点上。当超过节点的容器网卡配额时,后台取值为节点的容器网卡配额。 建议配置为大部分节点平时日常运行的Pod数。 节点预热容器网卡上限检查值(nic-maximum-target) 0 当节点绑定的容器网卡数超过节点预热容器网卡上限检查值(nic-maximum-target),不再主动预热容器网卡。 当该参数大于等于节点最少绑定容器网卡数(nic-minimum-target)时,则开启预热容器网卡上限值检查;反之,则关闭预热容器网卡上限值检查。 参数值需为正整数。例如0,表示关闭预热容器网卡上限值检查。当超过节点的容器网卡配额时,后台取值为节点的容器网卡配额。 建议配置为大部分节点平时最多运行的Pod数。 节点动态预热容器网卡数(nic-warm-target) 2 保障节点至少预热的容器网卡数,只支持数值配置。 当 节点动态预热容器网卡数(nic-warm-target) + 节点当前绑定的容器网卡数 大于 节点预热容器网卡上限检查值(nic-maximum-target) 时,只会预热nic-maximum-target与节点当前绑定的容器网卡数的差值。 建议配置为大部分节点日常10s内会瞬时弹性扩容的Pod数。 节点预热容器网卡回收阈值(nic-max-above-warm-target) 2 只有当 节点上空闲的容器网卡数 - 节点动态预热容器网卡数(nic-warm-target) 大于此阈值 时,才会触发预热容器网卡的解绑回收。只支持数值配置。 调大此值会减慢空闲容器网卡的回收,加快Pod的启动速度,但会降低IP地址的利用率,特别是在IP地址紧张的场景,请谨慎调大。 调小此值会加快空闲容器网卡的回收,提高IP地址的利用率,但在瞬时大量Pod激增的场景,部分Pod启动会稍微变慢。 建议配置为大部分节点日常在分钟级时间范围内会频繁弹性扩容缩容的Pod数 - 大部分节点日常10s内会瞬时弹性扩容的Pod数。
  • 集群网络配置 表1 集群网络配置参数说明 参数名称 参数说明 虚拟私有云 显示集群所在虚拟私有云。 虚拟私有云(Virtual Private Cloud,简称VPC)可以为云服务器、云容器、云数据库等资源构建隔离的、用户自主配置和管理的虚拟网络环境。您可以自由配置VPC内的IP地址段、子网、安全组等子服务,也可以申请弹性带宽和弹性公网IP搭建业务系统。 虚拟私有云网段 显示虚拟私有云网段。 如需扩展虚拟私有云网段,请参见扩展集群VPC网段。 默认节点子网 显示集群的节点子网。 子网是用来管理弹性云服务器网络平面的一个网络,可以提供IP地址管理、DNS服务,子网内的弹性云服务器IP地址都属于该子网。 默认情况下,同一个VPC的所有子网内的弹性云服务器均可以进行通信,不同VPC的弹性云服务器不能进行通信。 不同VPC的弹性云服务器可通过VPC创建对等连接通信。 默认节点子网 | IPv4网段 显示集群的节点子网网段。 容器网络模型 显示集群的容器网络模型,集群创建成功后,网络模型不可更改。不同网络模型对比请参见容器网络模型对比。 节点默认安全组 显示集群节点默认安全组。您可以选择自定义的安全组作为集群默认的节点安全组,但是需要注意放通指定端口来保证正常通信。 如需要自定义配置安全组规则,修改后的安全组只作用于新创建的节点和新纳管的节点,存量节点需要手动修改节点安全组规则。 保留原有Pod IP的非伪装网段(VPC集群支持) 在VPC网络集群中,集群内的容器如果想要访问集群外,则需要将源容器IP进行SNAT,转换为节点IP(伪装成节点与外部通信)。配置后,节点默认不会将该网段IP进行SNAT,即不进行这种伪装。v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上版本支持该配置。 集群中的节点默认不会将目的IP为10.0.0.0/8,172.16.0.0/12,192.168.0.0/16 三个网段的报文进行SNAT,因为这三个网段CCE默认为私有网段,可以借由上层VPC直接将报文送达(即将这三个网段视为集群内的网络,默认三层可达)。 说明: 如果需要保证节点能正常访问跨节点的Pod,必须添加节点的子网网段。 同理,如果同VPC下的其他ECS节点需要能正常访问Pod IP,必须添加ECS所在子网网段。 Pod访问元数据(CCE Turbo集群支持) 是否允许集群中的Pod访问宿主机元数据。v1.23.13-r0、v1.25.8-r0、v1.27.5-r0、v1.28.3-r0及以上版本支持该配置。 如果Pod在开关开启状态下创建,则该Pod能否访问元数据取决于开关状态。 如果Pod在开关关闭状态下创建,或是在历史版本集群中创建,则无论开关状态如何,Pod均无法访问元数据。如需访问元数据,需要在开关开启状态下重建Pod。
  • 服务配置 表2 服务配置参数说明 参数名称 参数说明 服务转发模式 显示集群的转发模式,集群创建完成后,服务转发模式不可修改。当前支持IPVS和iptables两种转发模式,具体请参见iptables与IPVS如何选择。 服务网段 集群中的每个Service都有自己的地址,在CCE上创建集群时,可以指定Service的地址段(即服务网段)。服务网段不能和子网网段重合,而且服务网段也不能和容器网段重叠。服务网段只在集群内使用,不能在集群外使用。 服务端口范围配置 NodePort端口范围,默认范围为30000-32767,支持的修改范围为20106-32767。修改后需前往安全组页面同步修改节点安全组30000-32767的TCP/UDP端口范围,否则除默认端口外的其他端口将无法被外部访问。 说明: 端口号小于20106会和系统组件的健康检查端口冲突,引发集群不可用;端口号高于32767会和操作系统的随机端口冲突,影响性能。
  • 编辑插件 本插件为系统默认安装,若需自定义参数,可参照如下步骤进行编辑。 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件中心”,在右侧找到CCE容器存储插件(Everest)插件,单击“编辑”。 在编辑插件页面,查看“规格配置”。 表1 everest插件规格配置 参数 参数说明 实例数 插件实例的副本数量。 实例数为1时插件不具备高可用能力,当插件实例所在节点异常时可能导致插件功能无法正常使用,请谨慎选择。 容器 CCE容器存储插件(Everest)包含everest-csi-controller和everest-csi-driver两个组件,详情请参见组件说明。 设置插件支持的“参数配置”。 表2 everest插件参数配置 参数 参数说明 csi_attacher_worker_threads CCE容器存储插件(Everest)中同时处理挂EVS卷的worker数,默认值为“60”。 csi_attacher_detach_worker_threads CCE容器存储插件(Everest)中同时处理卸载EVS卷的worker数,默认值均为“60”。 volume_attaching_flow_ctrl CCE容器存储插件(Everest)在1分钟内可以挂载EVS卷的最大数量,此参数的默认值“0”表示everest插件不做挂卷限制,此时挂卷性能由底层存储资源决定。 cluster_id 集群ID。 default_vpc_id 集群所在VPC的ID。 disable_auto_mount_secret 挂载对象桶/并行文件系统时,是否允许使用默认的AKSK,默认为false。 enable_node_attacher 是否开启agent侧attacher,开启后由attacher负责处理VolumeAttachment。 flow_control 默认为空。用户无需填写。 over_subscription 本地存储池(local_storage)的超分比。默认为80,若本地存储池为100G,可以超分为180G使用。 project_id 集群所属项目ID。 CCE容器存储插件(Everest)针对大批量挂EVS卷的性能做了优化,用户可配置如下3个参数: csi_attacher_worker_threads csi_attacher_detach_worker_threads volume_attaching_flow_ctrl 上述三个参数由于存在关联性且与集群所在局点的底层存储资源限制有关,当您对大批量挂卷的性能有要求(大于500EVS卷/分钟)时,请联系客服,在指导下进行配置,否则可能会因为参数配置不合理导致出现everest插件运行不正常的情况。 单击“确定”。
  • 安装插件 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件中心”,在右侧找到CCE容器弹性引擎插件,单击“安装”。 在安装插件页面,设置“规格配置”。 表1 cce-hpa-controller插件规格配置 参数 参数说明 插件规格 该插件可配置“单实例”或“自定义”规格。 说明: 单实例仅用于验证场景,商用场景请根据集群规格使用"自定义"资源配置,cce-hpa-controller插件的规格大小主要受集群中总容器数量和伸缩策略数量影响,通常场景下建议每5000容器配置CPU 500m, 内存1000Mi资源,每1000伸缩策略CPU 100m,内存500Mi。 实例数 选择上方插件规格后,显示插件中的实例数。 选择“自定义”规格时,您可根据需求调整插件实例数。 实例数为1时插件不具备高可用能力,当插件实例所在节点异常时可能导致插件功能无法正常使用,请谨慎选择。 容器 选择插件规格后,显示插件容器的CPU和内存配额。 选择“自定义”规格时,您可根据需求调整插件实例的容器规格。 该插件可配置“单实例”或“自定义”规格。 实例数:选择自定义规格时,请根据业务需求选择合适的实例数。 容器:选择自定义规格时,请根据业务需求选择合适的容器配额。 设置插件实例的“调度策略”。 调度策略对于DaemonSet类型的插件实例不会生效。 设置多可用区部署或节点亲和策略时,需保证集群中存在满足调度策略的节点且拥有足够的资源,否则插件实例将无法运行。 表2 插件调度配置 参数 参数说明 多可用区部署 优先模式:优先将插件的Deployment实例调度到不同可用区的节点上,如集群下节点不满足多可用区,插件实例将调度到单可用区。 均分模式:插件Deployment实例均匀调度到当前集群下各可用区,增加新的可用区后建议扩容插件实例以实现跨可用区高可用部署;均分模式限制不同可用区间插件实例数相差不超过1,单个可用区资源不足会导致后续其他实例无法调度。 强制模式:插件Deployment实例强制调度到不同可用区的节点上,如集群下节点不满足多可用区,插件实例将无法全部运行。 节点亲和 不配置:插件实例不指定节点亲和调度。 指定节点调度:指定插件实例部署的节点。若不指定,将根据集群默认调度策略进行随机调度。 指定节点池调度:指定插件实例部署的节点池。若不指定,将根据集群默认调度策略进行随机调度。 自定义亲和策略:填写期望插件部署的节点标签实现更灵活的调度策略,若不填写将根据集群默认调度策略进行随机调度。 同时设置多条自定义亲和策略时,需要保证集群中存在同时满足所有亲和策略的节点,否则插件实例将无法运行。 容忍策略 容忍策略与节点的污点能力配合使用,允许(不强制)插件的 Deployment 实例调度到带有与之匹配的污点的节点上,也可用于控制插件的 Deployment 实例所在的节点被标记污点后插件的 Deployment 实例的驱逐策略。 插件会对实例添加针对node.kubernetes.io/not-ready和node.kubernetes.io/unreachable污点的默认容忍策略,容忍时间窗为60s。 详情请参见容忍策略。 单击“安装”。
  • 版本记录 表4 CCE容器弹性引擎插件版本记录 插件版本 支持的集群版本 更新特性 1.4.2 v1.21 v1.23 v1.25 v1.27 v1.28 v1.29 适配CCE v1.29集群 1.3.43 v1.21 v1.23 v1.25 v1.27 v1.28 修复部分问题 1.3.42 v1.21 v1.23 v1.25 v1.27 v1.28 适配CCE v1.28集群 1.3.16 v1.19 v1.21 v1.23 v1.25 v1.27 修复部分问题。 1.3.14 v1.19 v1.21 v1.23 v1.25 v1.27 适配CCE v1.27集群 1.3.10 v1.19 v1.21 v1.23 v1.25 周期规则不受冷却时间影响定时触发 1.3.7 v1.19 v1.21 v1.23 v1.25 支持插件实例AZ反亲和配置 1.3.3 v1.19 v1.21 v1.23 v1.25 适配CCE v1.25集群 CronHPA调整Deployment实例数,新增skip场景 1.3.1 v1.19 v1.21 v1.23 适配CCE v1.23集群 1.2.12 v1.15 v1.17 v1.19 v1.21 插件性能优化,降低资源消耗 1.2.11 v1.15 v1.17 v1.19 v1.21 从K8s Metrics API查询资源指标 计算资源利用率时考虑未就绪的Pod 1.2.10 v1.15 v1.17 v1.19 v1.21 适配CCE v1.21集群 1.2.4 v1.15 v1.17 v1.19 插件依赖例行升级 支持配置插件资源规格 1.2.3 v1.15 v1.17 v1.19 适配ARM64节点部署 1.2.2 v1.15 v1.17 v1.19 增强健康检查能力 1.2.1 v1.15 v1.17 v1.19 适配CCE v1.19集群 更新插件为稳定版本 1.1.3 v1.15 v1.17 支持周期扩缩容规则
共100000条