检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
步骤四:测试HPA弹性功能 单击左侧导航栏的“工作负载”,在目标工作负载的操作列中单击“更多 > 弹性伸缩”。 策略类型选择“HPA+CronHPA策略”,并启用HPA策略, 可以直接选择配置在rules里面的自定义指标创建HPA策略。 单击工作负载名称,切换至“弹性伸缩”页签查看HPA状态,成功触发HPA策略。
解决方案 CCE中弹性伸缩最主要的就是使用HPA(Horizontal Pod Autoscaling)和CA(Cluster AutoScaling)两种弹性伸缩策略,HPA负责工作负载弹性伸缩,也就是应用层面的弹性伸缩,CA负责节点弹性伸缩,也就是资源层面的弹性伸缩。 通常情况
足业务的实际需求。在这种情况下,通过基于ELB的QPS数据进行弹性伸缩可以更加及时地响应业务需求。 解决方案 本文介绍一种基于ELB监控指标的弹性伸缩方法,相比CPU/内存使用率进行弹性伸缩,基于ELB的QPS数据弹性伸缩更有针对性,更加及时。 本方案的关键点是获取ELB的指标数
GPU虚拟化节点弹性伸缩配置 当集群中GPU虚拟化资源不足时,支持自动进行GPU节点的弹性伸缩。本文将指导您如何创建GPU虚拟化节点的弹性伸缩策略。 前提条件 已创建一个v1.28或v1.29版本的集群。 在集群中安装CCE AI套件(NVIDIA GPU)(2.7.5及以上版本
b,造成资源残留。用户可以手动清除残留命名空间及其下的计费资源来避免额外计费。 关于CCE突发弹性引擎(对接CCI)更多内容详情请参见:CCE突发弹性引擎(对接CCI)。 父主题: 弹性伸缩
基于Prometheus指标的弹性伸缩实践 Kubernetes默认的HPA策略只支持基于CPU和内存的自动伸缩,在复杂的业务场景中,仅使用CPU和内存使用率指标进行弹性伸缩往往无法满足日常运维需求。为此,CCE提供云原生监控插件(kube-prometheus-stack),可
eAffinity)。 当集群满足节点伸缩策略时,也会触发集群扩容,详情请参见创建节点弹性策略。 当前该插件使用的是最小浪费策略,即若Pod创建需要3核,此时有4核、8核两种规格,优先创建规格为4核的节点。 自动缩容 当集群节点处于一段时间空闲状态时(默认10min),会触发集群
允许 - 该配置影响控制器对伸缩策略相关指标反应的灵敏程度,当配置为0时,指标达到策略阈值时立即触发弹性 配置建议: 结合业务资源占用行为特点配置:如业务资源占用随时间的“突刺”特征明显,建议保留一定的容忍度值,避免因业务短时资源占用飚高导致预期之外的弹性行为 父主题: 集群
通过Nginx Ingress对多个应用进行弹性伸缩 在实际的生产环境中,应用多实例部署可以提高应用的稳定性和可靠性,但也会增加资源的浪费和成本。因此,在进行多实例部署时,需要权衡资源利用率和应用性能之间的平衡,但手动调节实例数量存在伸缩不及时的问题,难以达到最佳的效果。 如果该应用使用Nginx
什么是弹性网卡? 弹性网卡即虚拟网卡,您可以通过创建并配置弹性网卡,并将其附加到您的云服务器实例(包括弹性云服务器和裸金属服务器)上,实现灵活、高可用的网络方案配置。 弹性网卡类型 主弹性网卡:在创建云服务器实例时,随实例默认创建的弹性网卡称作主弹性网卡。主弹性网卡无法与实例进行解绑。
controller 工作负载弹性:CronHPA(CronHorizontalPodAutoscaler)+ HPA(Horizontal Pod Autoscaling) 集群节点弹性:CA(Cluster AutoScaling) 图1 弹性伸缩场景 父主题: 应用场景
集群弹性伸缩配置 弹性扩容配置 CCE集群弹性引擎将综合判断整集群的资源情况,当微服务负载高(CPU/内存使用率过高)时水平扩容,增加Pod的数量以降低负载。 节点扩容条件 负载无法调度时自动扩容:集群中存在负载实例无法调度时,尝试自动扩容已开启弹性伸缩的节点池。若Pod已经设置亲和某个节点,则不会自动扩容节点。
"selector":null}]} 创建弹性伸缩策略 单击左侧导航栏的“工作负载”,在目标工作负载的操作列中单击“弹性伸缩”。 策略类型选择“HPA+CronHPA策略”,并启用HPA策略。 您可在“自定义策略”中选择GPU监控参数创建弹性伸缩策略,示例如下。 图4 选择自定义指标
CCE容器弹性引擎 CCE容器弹性引擎(原名cce-hpa-controller)插件是一款CCE自研的插件,能够基于CPU利用率、内存利用率等指标,对无状态工作负载进行弹性扩缩容。 安装本插件后,可创建CronHPA定时策略及CustomedHPA策略,具体请参见创建CronH
否 bool 是否开启弹性缩容,默认值:false。 scaleDownDelayAfterAdd 否 int 集群触发弹性扩容后,再次启动缩容评估的冷却时间,单位分钟,默认值:10。 scaleDownDelayAfterDelete 否 int 集群触发弹性缩容后,再次启动缩容
对创建临时存储卷的POD添加不可调度容忍时间 修复伸缩组资源不足时无法正常修复节点池数量问题 1.23.0 1.23.17 v1.23 适配NPU和安全容器 节点伸缩策略支持不设置步长 bug修复,自动移除已删除的节点池 设置优先调度 注册EmptyDir调度策略 修复停用节点伸缩策略时,低于缩容阈值的节点未触发缩容的问题
容器垂直弹性引擎 CCE容器垂直弹性引擎是一款支持应用垂直弹性伸缩(VPA,Vertical Pod Autoscaling)的插件,可以根据容器资源历史使用情况自动调整Pod的CPU、Memory资源申请量。 开源社区地址:https://github.com/kubernet
PU资源的情况,例如GPU利用率、显存使用量、GPU运行的温度、GPU的功率等。在获取GPU监控指标后,用户可根据应用的GPU指标配置弹性伸缩策略,或者根据GPU指标设置告警规则。本文基于开源Prometheus和DCGM Exporter实现丰富的GPU观测场景,关于DCGM
CCE容器弹性引擎 插件介绍 CCE容器弹性引擎(cce-hpa-controller)插件是一款CCE自研的插件,能够基于CPU利用率、内存利用率等指标,对无状态工作负载进行弹性扩缩容。 字段说明 表1 参数描述 参数 是否必选 参数类型 描述 basic 否 object 插件基础配置参数,无需指定。
#容器总的被限流的时间(纳秒) nr_bursts 0 #容器突破CPU limit的次数 burst_time 0 #容器总共burst的时间 表1 本例中结果汇总 是否开启CPU Burst p99时延 nr_throttled 限流次数 throttled_time 总限流时间 nr_bursts