正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
路径匹配规则:支持前缀匹配、精确匹配、正则匹配,请按需选择。 路径:后端应用对外提供访问的路径,此处添加的访问路径要求后端应用内存在相同的路径,否则转发无法生效。 目标服务名称:请选择已有Service或新建Service。页面列表中的查询结果已自动过滤不符合要求的Service。 目标服务访
路径匹配规则:支持前缀匹配、精确匹配、正则匹配,请按需选择。 路径:后端应用对外提供访问的路径,此处添加的访问路径要求后端应用内存在相同的路径,否则转发无法生效。 目标服务名称:请选择已有Service或新建Service。页面列表中的查询结果已自动过滤不符合要求的Service。 目标服务访
检查Node节点中Python命令是否可用。 检查方式 /usr/bin/python --version echo $? 如果回显值不为0证明检查失败。 解决方案 可优先重置节点或手动安装Python之后再进行升级。 父主题: 升级前检查异常问题排查
DNS是K8s中至关重要的基础服务之一,当容器DNS策略配置不合理,集群规模较大时,DNS容易出现解析超时、解析失败等现象,极端场景下甚至会引起集群内业务大面积解析失败。本文介绍Kubernetes集群中CoreDNS配置优化的最佳实践,帮助您避免此类问题。 解决方案 CoreD
vor_name为准 负载均衡所在可用区。 自动创建的独享型负载均衡器所在的可用区 参数名 取值范围 默认值 是否允许修改 作用范围 available_zone 无 无 允许 CCE Standard/CCE Turbo 负载均衡器所在的子网IPv4网络ID 自动创建的独享型负载均衡器的前端子网
vor_name为准 负载均衡所在可用区。 自动创建的独享型负载均衡器所在的可用区 参数名 取值范围 默认值 是否允许修改 作用范围 available_zone 无 无 允许 CCE Standard/CCE Turbo 负载均衡器所在的子网IPv4网络ID 自动创建的独享型负载均衡器的前端子网
Prometheus提供了Remote Write标准接口,您可以在CCE云原生监控插件中填写数据上报地址(Remote Write URL),将本地采集到的监控数据远程存储到Prometheus中。 如果您用于接受数据的目的端为第三方厂商提供的Prometheus,您可以前往对应厂商的控制台中查看Remote
"bandwidth_sharetype": "PER", "eip_type": "5_bgp", "available_zone": [ "cn-north-4b" ], "l4_flavor_name":
对外端口:开放在负载均衡服务地址的端口,可任意指定。 访问控制: 允许所有IP访问:不设置访问控制。 白名单:仅所选IP地址组可以访问ELB地址。 黑名单:所选IP地址组无法访问ELB地址。 证书来源:支持TLS密钥和ELB服务器证书。 服务器证书:负载均衡器创建HTTPS协议监听时需要绑定证书,以支持HTTPS数据传输加密认证。
性能要求较高:由于没有额外的隧道封装,相比于容器隧道网络模式,VPC网络模型集群的容器网络性能接近于VPC网络性能,所以适用于对性能要求较高的业务场景,比如:AI计算、大数据计算等。 中小规模组网:由于VPC路由网络受限于VPC路由表条目配额的限制,建议集群规模为1000节点及以下。 性能要求高:由于云原生网络2
io/elb.acl-type String 为ELB设置IP地址黑名单或白名单时需填写,取值如下: black:表示黑名单,所选IP地址组无法访问ELB地址。 white:表示白名单,仅所选IP地址组可以访问ELB地址。 v1.23.12-r0、v1.25.7-r0、v1.27.4-r0、v1
路径匹配规则:支持前缀匹配、精确匹配、正则匹配,请按需选择。 路径:后端应用对外提供访问的路径,此处添加的访问路径要求后端应用内存在相同的路径,否则转发无法生效。 目标服务名称:请选择已有Service或新建Service。页面列表中的查询结果已自动过滤不符合要求的Service。 目标服务访
路径匹配规则:支持前缀匹配、精确匹配、正则匹配,请按需选择。 路径:后端应用对外提供访问的路径,此处添加的访问路径要求后端应用内存在相同的路径,否则转发无法生效。 目标服务名称:请选择已有Service或新建Service。页面列表中的查询结果已自动过滤不符合要求的Service。 目标服务访
10:20:00进行了删除,使用期间产生了5GB的公网流量。 测试验证完成后,用户准备将业务搬迁到CCE,预计集群最终规模在50-200节点之间,当前集群规模无法满足业务需要。因此,于2023/03/20 10:30:00将集群规模变更为200节点。 因为该集群打算长期使用,于2023/03/20
luster-admin、admin、edit、view四种ClusterRole角色的权限,这四种权限是针对命名空间中所有资源进行配置,无法对命名空间中不同类别资源(如Pod、Deployment、Service等)的增删改查权限进行配置。 解决方案 Kubernetes提供一
最新采集Sample数、错误信息。 若您的云原生监控插件开启了分片,则会有多个采集实例,可在采集实例处进行切换。 在云原生监控插件本地数据存储关闭的情况下,采集端点支持单击直接访问,查看采集结果,方便您对采集任务进行查看和分析管理。 采集端点访问403的原因是什么?该如何处理? 问题根因
时,删除Service或删除集群会强制回收监听器及后端服务器组。 创建Service时,请勿使用已被其他协议占用的端口,否则Service无法创建成功。 通过ELB实现跨集群访问时,和ELB对接的所有Service均需要开启跨集群能力,否则可能出现后端服务器组被覆盖清除的问题。
IPVS缺陷导致节点上升级CoreDNS后出现概率性解析超时 故障现象 在集群使用IPVS转发的场景下,节点上升级CoreDNS后,可能出现概率性丢包,导致域名解析失败。 问题根因 该问题由IPVS缺陷导致,社区已在IPVS v5.9-rc1版本中修复该问题,详情请参见ipvs: queue delayed
节点命令行检查异常处理 检查项内容 检查节点中是否存在升级所必须的命令。 解决方案 该问题一般由于节点上缺少集群升级流程中使用到的关键命令,可能会导致集群升级失败。 报错信息如下: __error_code#ErrorCommandNotExist#chage command is not exists#__
GPU节点使用nvidia驱动启动容器排查思路 集群中的节点是否有资源调度失败的事件? 问题现象: 节点运行正常且有GPU资源,但报如下失败信息: 0/9 nodes are aviable: 9 insufficient nvida.com/gpu 排查思路: 确认节点标签是否已经打上nvidia资源。