检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
约束限制: 不涉及 取值范围: iptables:社区传统的kube-proxy模式,完全以iptables规则的方式来实现service负载均衡。该方式最主要的问题是在服务多的时候产生太多的iptables规则,非增量式更新会引入一定的时延,大规模情况下有明显的性能问题。 ipv
约束限制: 不涉及 取值范围: iptables:社区传统的kube-proxy模式,完全以iptables规则的方式来实现service负载均衡。该方式最主要的问题是在服务多的时候产生太多的iptables规则,非增量式更新会引入一定的时延,大规模情况下有明显的性能问题。 ipv
弹性伸缩 使用HPA+CA实现工作负载和节点联动弹性伸缩 CCE容器实例弹性伸缩到CCI服务 基于Prometheus指标的弹性伸缩实践 基于ELB监控指标的弹性伸缩实践 通过Nginx Ingress对多个应用进行弹性伸缩
gle-numa-node”的节点,但由于单NUMA节点CPU总量均无法满足17U的申请值,因此该Pod无法调度。 图1 NUMA调度策略对比 调度优先级 不管是什么拓扑策略,都是希望把Pod调度到当时最优的节点上,这里通过给每一个节点进行打分的机制来排序筛选最优节点。 原则:尽
策略触发时,工作负载实例将在此范围内伸缩。 须知: 在CCE Turbo集群中,如果使用独享型ELB对接到工作负载,则最大实例数不能超过ELB的后端服务器组配额(默认为500),否则将会导致多余的实例无法添加到ELB后端。 冷却时间 请输入缩容和扩容的冷却时间,单位为分钟,缩容扩容冷却时间不能小于1分钟。
ressClassName指定其类别,即存在输出。 确认该Ingress被Nginx Ingress Controller纳管。如果使用ELB类型的Ingress则无此问题。 1.19集群可由通过managedFields机制确认。 kubectl get ingress <ingress-name>
ressClassName指定其类别,即存在输出。 确认该Ingress被Nginx Ingress Controller纳管。如果使用ELB类型的Ingress则无此问题。 1.19集群可由通过managedFields机制确认。 kubectl get ingress <ingress-name>
121.**.**.** 80 10s 访问Ingress,其中${ELB_IP}为Nginx Ingress所绑定的ELB IP。 curl ${ELB_IP}/something 最终访问路径会被重定向至“/”路径。 Ingress配置文件说明 在
23版本,原有已创建的资源不受影响,但新建与编辑场景将会遇到v1beta1 API 版本被拦截的情况。 具体yaml配置结构变更可参考文档通过Kubectl命令行创建ELB Ingress。 父主题: 升级前检查异常问题排查
28版本进行定期的更新,并提供功能增强。 关于CCE集群版本的更新说明,请参见CCE集群版本发布说明。 参考链接 关于Kubernetes 1.28与其他版本的性能对比和功能演进的更多信息,请参考:Kubernetes v1.28 Release Notes 父主题: Kubernetes版本发布记录
28版本进行定期的更新,并提供功能增强。 关于CCE集群版本的更新说明,请参见CCE集群版本发布说明。 参考链接 关于Kubernetes 1.28与其他版本的性能对比和功能演进的更多信息,请参考:Kubernetes v1.28 Release Notes 父主题: Kubernetes版本发布记录
如何让多个Pod均匀部署到各个节点上? Kubernetes中kube-scheduler组件负责Pod的调度,对每一个新创建的 Pod 或者是未被调度的 Pod,kube-scheduler 会选择一个最优的节点去运行这个 Pod。kube-scheduler 给一个 Pod
重调度(Descheduler) 集群中的调度是将pending状态的Pod分配到节点运行的过程,在CCE集群之中,Pod的调度依赖于集群中的调度器(kube-scheduler或者Volcano调度器)。调度器是通过一系列算法计算出Pod运行的最佳节点,但是Kubernetes
健康检查配置 健康检查 此配置项配置为健康检查配置。 参数名 取值范围 默认值 是否允许修改 作用范围 k8s annotation: elb.health-check-options 无 无 允许 CCE Standard/CCE Turbo 健康检查的目标端口 spec.po
以保留源IP。但是在Local模式下,如果实例滚动升级时Pod所在节点发生变化,导致ELB侧后端服务器会同步变化,可能会出现服务中断。这种情况下可以通过实例原地升级的方式避免服务中断,即保证ELB后端的节点上存在一个正常状态的Pod。 综上,实现升级实例过程中的业务不中断的方案可参考下表:
最大扩容实例数,取值范围为0~2147483647。 须知: 在CCE Turbo集群中,如果使用独享型ELB对接到工作负载,则最大实例数不能超过ELB的后端服务器组配额(默认为500),否则将会导致多余的实例无法添加到ELB后端。 minReplicas 是 最小缩容实例数,取值范围为0~2147483647。
name: gray-release namespace: default annotations: kubernetes.io/elb.port: '80' spec: rules: - host: www.example.com http:
账号B为企业业务账号,使用子网2创建资源。 约束与限制 当前仅CCE Turbo集群支持共享VPC特性。 使用共享VPC创建的集群不支持使用共享ELB及NAT网关功能。 使用共享VPC创建的集群暂不支持文件存储、对象存储和极速文件存储。 如果当前共享VPC下已创建CCE Turbo集群,
工作负载弹性伸缩实践 CCE容器实例弹性伸缩到CCI服务 使用HPA+CA实现工作负载和节点联动弹性伸缩 基于Prometheus指标的弹性伸缩实践 基于ELB监控指标的弹性伸缩实践 通过Nginx Ingress对多个应用进行弹性伸缩 工作负载发布实践 使用Service实现简单的灰度发布和蓝绿发布
约束限制: 不涉及 取值范围: iptables:社区传统的kube-proxy模式,完全以iptables规则的方式来实现service负载均衡。该方式最主要的问题是在服务多的时候产生太多的iptables规则,非增量式更新会引入一定的时延,大规模情况下有明显的性能问题。 ipv