检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
高于100个节点,每增加100个节点(10000个Pod),建议CPU的申请值增加500m,内存的申请值增加1000Mi;CPU的限制值建议比申请值多1500m,内存的限制值建议比申请值多1000Mi。 申请值推荐计算公式: CPU申请值:计算“目标节点数 * 目标Pod规模”的值,并在表1中根据“集群节点数
String CPU大小限制,单位:m 默认为:250m limitsMem 是 String 内存大小限制,单位:Mi 默认为:512Mi name 是 String 插件名称,固定为:virtual-kubelet requestsCpu 是 String 申请的CPU大小,单位:m
灵活的资源配置:节点池提供更加灵活的节点类型,允许您根据即时需求创建按需节点,也可以选择成本效益更高的包年/包月节点。 多元的实例选择:您可以基于业务需求,通过CPU和内存等参数筛选多种实例规格(如GPU实例),从而满足不同业务场景的需要。 高级的弹性伸缩:节点池支持开启弹性伸缩功能,您可以配置多种伸缩策
一致性。如果在客户端和服务器之间部署了负载均衡设备,很有可能这多个连接会被转发至不同的服务器进行处理。开启会话保持后,负载均衡会把来自同一客户端的访问请求持续分发到同一台后端云服务器上进行处理。 例如在大多数需要用户身份认证的在线系统中,一个用户需要与服务器实现多次交互才能完成一
加权轮询算法:根据后端服务器的权重,按顺序依次将请求分发给不同的服务器。它用相应的权重表示服务器的处理性能,按照权重的高低以及轮询方式将请求分配给各服务器,相同权重的服务器处理相同数目的连接数。常用于短连接服务,例如HTTP等服务。 加权最少连接:最少连接是通过当前活跃的连接数来估计服务器负载情
优先确保各节点的内存资源负载趋于均衡:建议提高负载感知调度的内存权重为5,CPU权重保持为1。 真实负载阈值生效方式与CPU真实负载阈值和内存真实负载阈值联合生效: 硬约束场景: 节点CPU真实利用率超过CPU真实负载阈值后,该节点不允许调度新的工作负载。 节点内存真实利用率超过内存真实负载阈值后,该节点不允许调度新的工作负载。
Agent版本检查异常处理 节点CPU使用率检查异常处理 CRD检查异常处理 节点磁盘检查异常处理 节点DNS检查异常处理 节点关键目录文件权限检查异常处理 节点Kubelet检查异常处理 节点内存检查异常处理 节点时钟同步服务器检查异常处理 节点OS检查异常处理 节点CPU数量检查异常处理 节点Python命令检查异常处理
其中调度器判定节点资源不足的计算方式为: 集群节点CPU资源不足的判定方式:当前Pod请求的CPU资源总量>(节点可分配的CPU资源总量-节点已分配的CPU资源总量) 集群节点内存资源不足的判定方式:当前Pod请求的内存资源总量>(节点可分配的内存资源总量-节点已分配的内存资源总量) 集群节点临时存储
约束限制 当节点池中节点为0时,CCE集群弹性引擎插件无法获取节点CPU/内存数据,指标触发的节点弹性规则将不会生效。 GPU/NPU节点驱动未安装成功时,CCE集群弹性引擎插件会认为该节点未完全可用,通过CPU/内存指标触发的节点弹性规则将不会生效。 使用CCE集群弹性引擎插件时
2。 登录ECS控制台,查看对应的弹性云服务器状态。 若弹性云服务器状态为“已删除”:请在CCE中删除对应节点,再重新创建节点。 若弹性云服务器状态为“关机”或“冻结”:请先恢复弹性云服务器,约3分钟后集群节点可自行恢复。 若弹性云服务器出现故障:请先重启弹性云服务器,恢复故障。
接口约束 纳管节点支持ECS(弹性云服务器)节点、BMS(裸金属服务器)节点以及DeH(专属主机)节点。 待纳管节点必须状态为“运行中”,未被其他集群所使用,且不携带 CCE 专属节点标签CCE-Dynamic-Provisioning-Node。 待纳管节点需与集群在同一虚拟私有云内(若集群版本低于1
kubelet CPU/内存占用 低 高 运行时CPU/内存占用 低 高 节点操作系统与容器引擎对应关系 v1.23及以上的VPC网络集群都支持Containerd,容器隧道网络集群从v1.23.2-r0开始支持Containerd。 表2 CCE集群节点操作系统与容器引擎对应关系
节点弹性伸缩:即资源层弹性,主要是集群的容量规划不能满足集群调度容量时,会通过弹出ECS或CCI等资源的方式进行调度容量的补充。CCE容器实例弹性到CCI服务的方法请参见CCE容器实例弹性伸缩到CCI服务。 两个维度的弹性组件与能力可以分开使用,也可以结合在一起使用,并且两者之间可以通过调度层面
定的驱逐上限且节点request值超过100%时,将会驱逐离线作业。 内核提供CPU/内存隔离特性 CPU隔离:在线作业能够快速抢占离线作业的CPU资源,并压制离线作业的CPU使用。 内存隔离:系统内存资源用尽触发OOM Kill时,内核优先驱逐离线作业。 Kubelet离线作业准入规则
通常场景下建议每5000容器配置CPU 500m, 内存1000Mi资源,每1000伸缩策略CPU 100m,内存500Mi。 AHPA需要对工作负载历史数据进行分析处理,需要额外内存,通常场景下建议每100个AHPA策略配置CPU 100m、内存 300Mi。 创建AHPA策略
不同场景下容器内获取客户端源IP 在容器化环境中,客户端与容器服务器间的通信可能涉及多种代理服务器。当外部请求经过代理服务器多层转发时,客户端源IP地址可能无法被成功传递至容器内的业务中。本文将针对CCE集群提供网络访问的不同方案,详细说明如何在容器内部有效地获取客户端源IP。 场景介绍
Pending Pods。 autoscaler决策优选节点池,评估Pod的CPU/内存比为1:4,节点池1中的节点规格为2U8G(CPU/内存比为1:4),节点池2中的节点规格为2U4G(CPU/内存比为1:2)。因此优选节点池1执行本次扩容。 topology-balance
网络访问控制 Kata安全容器,给容器提供类似虚拟机级别的安全隔离能力 云原生专属OS,漏洞自动修复 详情请参见集群类型对比。 节点规格选择 不同类型ECS规格实例提供不同的计算能力和存储能力。通常情况下,配置的规格越高(CPU、内存配置越高)、专业程度越高(例如:GPU、NPU
过滤掉不稳定的CPU使用数据,进而防止基于瞬时峰值做出错误的扩缩容决策。 配置建议:如果您观察到Pods在启动阶段的CPU使用率波动导致HPA做出错误的扩展决策,增大此值可以提供一个CPU使用率稳定化的缓冲期。 说明: 请合理设置该参数,设置值过低可能导致基于CPU峰值做出过度反
Ingress与ELB配置一致性检查 检查项内容 检查到您集群中Ingress配置与ELB配置不一致,请确认是否在ELB侧修改过Ingress自动创建的监听器、转发策略、转发规则、后端云服务器组、后端云服务器和证书配置。 升级后会覆盖您在ELB自行修改的内容,请整改后再进行集群升级。