检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
configmap_key=configmap_value # 配置项导入,原配置项中的键值直接会导入结果 secret_key=secret_value # 密钥导入,原密钥中的键值直接会导入结果 父主题: 配置工作负载
访问工作负载(例如Nginx工作负载),在浏览器中输入安全访问地址https://121.**.**.**:443进行验证。 其中,121.**.**.**为统一负载均衡实例的IP地址。 父主题: Nginx Ingress高级配置示例
Containerd节点上业务容器标准输出不断写入大量日志,导致/var/lib/containerd目录占用空间不断增长,同时节点上容器创删速度变慢,进一步出现磁盘使用率过高、Pod驱逐、节点异常等现象。 问题根因 对于使用Containerd运行时的节点上业务容器,若日志输出方式采用
ker/Containerd。Pod重建后sock文件重新挂载,可恢复正常。 44 HTTPS类型负载均衡证书一致性检查异常处理 检查HTTPS类型负载均衡所使用的证书,是否在ELB服务侧被修改。 45 节点挂载检查异常处理 检查节点上默认挂载目录及软链接是否被手动挂载或修改。 46
为什么CCE集群的容器无法通过DNS解析? 问题描述 某客户在DNS服务中做内网解析,将自有的域名绑定到DNS服务中的内网域名中,并绑定到特定的VPC中,发现本VPC内的节点(ECS)可以正常解析内网域名的记录,而VPC内的容器则无法解析。 适用场景 VPC内的容器无法进行正常DNS解析的情况。
Ingress配置HTTPS协议的后端服务。 创建一致性哈希负载均衡规则 表5 一致性哈希负载均衡注解 参数 类型 描述 nginx.ingress.kubernetes.io/upstream-hash-by String 为后端启用一致性哈希进行负载均衡,参数值支持nginx参数、文本值或任意组合,例如:
dev_queue_xmit函数检测到重复进入发包过程达10次,报文被丢弃同时打印该日志。 发起访问端的在报文丢失后一般会进行几次退避重试,因此在这种场景下会连续打印几次条日志,直到发起访问端的容器内ARP老化或业务自身终止访问。 跨节点容器间通信,由于目的IP及源IP不属于同个
Pod支持Kubernetes原生NetworkPolicy 否 Pod支持使用安全组隔离 ELB对接Pod ELB对接Pod需要通过节点NodePort转发 ELB对接Pod需要通过节点NodePort转发 使用独享型ELB时可直接对接Pod 使用共享型ELB对接Pod需要通过节点NodePort转发 容器IP地址管理
集群外部通过访问Service即可访问到后端Pod提供的服务。如需对外暴露可直接设置Service类型为LoadBalancer,弹性负载均衡ELB将作为流量入口。 灰度发布原理 以Deployment为例,用户通常会为每个Deployment创建一个Service,但Kuber
Ingress与ELB配置一致性检查 检查项内容 检查到您集群中Ingress配置与ELB配置不一致,请确认是否在ELB侧修改过Ingress自动创建的监听器、转发策略、转发规则、后端云服务器组、后端云服务器和证书配置。 升级后会覆盖您在ELB自行修改的内容,请整改后再进行集群升级。
io/mirror-host": "example.com"}}' 其中<cluster_2_ingress_ip_address>为cluster-2中Ingress负载均衡器的对外IP地址。 结果验证 执行以下命令,访问cluster-1的应用域名example.com,进行结果验证: curl http:
若当前cce_cluster_agency委托的权限与CCE期望的权限不同时,控制台会提示权限变化,需要您重新授权。 以下场景中,可能会出现cce_cluster_agency委托重新授权: CCE组件依赖的权限可能会随版本变动而发生变化。例如新增组件需要依赖新的权限,CCE将会更新期望的权
间的容器都运行在VPC之内 √ √ √ VPC(虚拟私有云)所有资源列表的查看权限。 √ √ √ ELB(弹性负载均衡)服务所有资源详情的查看权限。 x x √ ELB(弹性负载均衡)服务所有资源列表的查看权限。 x x √ SFS(弹性文件服务)服务所有资源详情的查看权限。 √
Ingress控制器插件时无法使用。如果集群中安装了多套NGINX Ingress控制器,需将nginx替换为自定义的控制器名称,用于识别Ingress对接的控制器实例。 当NGINX Ingress控制器插件为2.5.4及以上时,集群中支持同时安装多套NGINX Ingress控制器,该参
为什么CCE集群界面的节点磁盘监控看起来不准确? 问题描述: CCE集群界面的某个节点磁盘监控高达80%以上,而进入云监控界面看到的磁盘使用率在40%不到。 后面在该节点上排查,发现有一个pvc磁盘使用达到了92%,将这个盘清理后,集群界面的磁盘使用率和云监控使用率一致了。 请问
为什么kubectl top命令查看节点内存使用超过100%? 问题现象 从界面上看节点内存使用率并不是很高,但使用kubelet top node查看节点内存使用率已超过100%。 NAME CPU(cores) CPU% MEMORY(bytes)
LineStatus 参数 参数类型 描述 startPoint Point object 线路起点 endPoint Point object 线路终点 critical String 表示是否为关键线路(关键线路未执行无法取消升级流程) 表11 Point 参数 参数类型 描述 taskType
SNAT规则中添加的自定义网段,对于云专线的配置,必须是云专线侧网段,且不能与虚拟私有云侧的网段冲突。 当执行云服务器底层资源操作(如变更规格)时,会导致已配置的NAT规则失效,需要删除后重新配置。 创建service后,如果服务亲和从集群级别切换为节点级别,连接跟踪表将不会被清理,建议用
器,判定健康检查成功,并发送RST报文给后端服务器中断TCP连接。 注意 正常的TCP三次握手后,会进行数据传输,但是在健康检查时会发送RST中断建立的TCP连接。该实现方式可能会导致后端服务器中的应用认为TCP连接异常退出,并打印错误信息,如“Connection reset by
动配置到ELB侧(证书名以k8s_plb_default开头),由CCE自动创建的证书在ELB侧不可修改或删除。如果您需要修改证书,请在CCE侧更新对应的Secret。 使用ELB服务中的证书:直接使用ELB服务中创建的证书,无需手动配置集群Secret,且可以在ELB侧修改证书。