检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
client-go兼容? 服务加入Istio后,如何获取客户端真实源IP? 为什么更换命名空间后无法创建Ingress? 服务发布到ELB,ELB的后端为何会被自动删除? 如何使容器重启后所在容器IP仍保持不变? 如何确认网卡不被集群占用? 删除子网后如何删除安全组规则? 不同命
Pod支持Kubernetes原生NetworkPolicy 否 Pod支持使用安全组隔离 ELB对接Pod ELB对接Pod需要通过节点NodePort转发 ELB对接Pod需要通过节点NodePort转发 使用独享型ELB时可直接对接Pod 使用共享型ELB对接Pod需要通过节点NodePort转发 容器IP地址管理
命名空间权限:作用于集群内部,用于管理集群资源操作(如创建工作负载等)。 集群管理(IAM)权限:云服务层面的权限,用于管理CCE集群与周边资源(如VPC、ELB、ECS等)的操作。 对于IAM Admin用户组的管理员用户来说,可以为IAM子用户授予集群管理权限(如CCE Administrator、CCE
约束限制: 不涉及 取值范围: iptables:社区传统的kube-proxy模式,完全以iptables规则的方式来实现service负载均衡。该方式最主要的问题是在服务多的时候产生太多的iptables规则,非增量式更新会引入一定的时延,大规模情况下有明显的性能问题。 ipv
Pod支持Kubernetes原生NetworkPolicy 否 Pod支持使用安全组隔离 ELB对接Pod ELB对接Pod需要通过节点NodePort转发 ELB对接Pod需要通过节点NodePort转发 使用独享型ELB时可直接对接Pod 使用共享型ELB对接Pod需要通过节点NodePort转发 容器IP地址管理
约束限制: 不涉及 取值范围: iptables:社区传统的kube-proxy模式,完全以iptables规则的方式来实现service负载均衡。该方式最主要的问题是在服务多的时候产生太多的iptables规则,非增量式更新会引入一定的时延,大规模情况下有明显的性能问题。 ipv
弹性伸缩 使用HPA+CA实现工作负载和节点联动弹性伸缩 CCE容器实例弹性伸缩到CCI服务 基于Prometheus指标的弹性伸缩实践 基于ELB监控指标的弹性伸缩实践 通过Nginx Ingress对多个应用进行弹性伸缩
设置插件支持的“扩展功能”。 重调度:启用后,默认部署volcano-descheduler组件,调度器根据您的策略配置驱逐和重新调度不符合要求的pod,实现集群负载均衡或减少资源碎片的效果。详情请参见重调度(Descheduler)。 在离线业务混部:启用后,开启混部能力的节点池默认部署volcano-
ginx-ingress的ELB服务地址添加到节点本地hosts文件。nginx-ingress的ELB服务地址即为3.c查询的ADDRESS IP地址。 export NGINXELB=xx.xx.xx.xx echo -n "${NGINXELB} test.example
策略触发时,工作负载实例将在此范围内伸缩。 须知: 在CCE Turbo集群中,如果使用独享型ELB对接到工作负载,则最大实例数不能超过ELB的后端服务器组配额(默认为500),否则将会导致多余的实例无法添加到ELB后端。 冷却时间 请输入缩容和扩容的冷却时间,单位为分钟,缩容扩容冷却时间不能小于1分钟。
节点伸缩原理 HPA是针对Pod级别的,可以根据负载指标动态调整副本数量,但是如果集群的资源不足,新的副本无法运行的情况下,就只能对集群进行扩容。 CCE集群弹性引擎是Kubernetes提供的集群节点弹性伸缩组件,根据Pod调度状态及资源使用情况对集群的节点进行自动扩容缩容,同
ressClassName指定其类别,即存在输出。 确认该Ingress被Nginx Ingress Controller纳管。如果使用ELB类型的Ingress则无此问题。 1.19集群可由通过managedFields机制确认。 kubectl get ingress <ingress-name>
前仍然处于默认关闭状态,需要使用NodeSwap门控打开。该特性可以为Linux节点上运行的Kubernetes工作负载逐个节点地配置内存交换。需要注意的是,该特性虽然进阶至Beta特性,但仍然存在一些需要增强的问题和安全风险。更多使用细节请参考NodeSwap特性。 Job相关特性
前仍然处于默认关闭状态,需要使用NodeSwap门控打开。该特性可以为Linux节点上运行的Kubernetes工作负载逐个节点地配置内存交换。需要注意的是,该特性虽然进阶至Beta特性,但仍然存在一些需要增强的问题和安全风险。更多使用细节请参考NodeSwap特性。 Job相关特性
ressClassName指定其类别,即存在输出。 确认该Ingress被Nginx Ingress Controller纳管。如果使用ELB类型的Ingress则无此问题。 1.19集群可由通过managedFields机制确认。 kubectl get ingress <ingress-name>
23版本,原有已创建的资源不受影响,但新建与编辑场景将会遇到v1beta1 API 版本被拦截的情况。 具体yaml配置结构变更可参考文档通过Kubectl命令行创建ELB Ingress。 父主题: 升级前检查异常问题排查
121.**.**.** 80 10s 访问Ingress,其中${ELB_IP}为Nginx Ingress所绑定的ELB IP。 curl ${ELB_IP}/something 最终访问路径会被重定向至“/”路径。 Ingress配置文件说明 在
如何让多个Pod均匀部署到各个节点上? Kubernetes中kube-scheduler组件负责Pod的调度,对每一个新创建的 Pod 或者是未被调度的 Pod,kube-scheduler 会选择一个最优的节点去运行这个 Pod。kube-scheduler 给一个 Pod
单独的存储,这时Deployment无法满足业务需求。 分布式有状态应用的特点主要是应用中每个部分的角色不同(即分工不同),比如数据库有主备、Pod之间有依赖,在Kubernetes中部署有状态应用对Pod有如下要求: Pod能够被别的Pod找到,要求Pod有固定的标识。 每个P
健康检查配置 健康检查 此配置项配置为健康检查配置。 参数名 取值范围 默认值 是否允许修改 作用范围 k8s annotation: elb.health-check-options 无 无 允许 CCE Standard/CCE Turbo 健康检查的目标端口 spec.po