检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
异常,请执行systemctl restart ntpd命令后重新查询状态。 以下为正常回显: 图1 ntpd运行状态 若重启ntpd服务无法解决该问题,请联系技术支持人员。 问题场景二:chronyd运行异常 请登录该节点,执行systemctl status chronyd命
超过1,单个可用区资源不足会导致后续其他实例无法调度。 强制模式:插件Deployment实例强制调度到不同可用区的节点上,每个可用区下最多运行一个实例。如集群下节点不满足多可用区,插件实例将无法全部运行。节点故障后,插件实例存在无法迁移风险。 节点亲和 不配置:插件实例不指定节点亲和调度。
用的磁盘空间,默认占比为80%,其空间大小 = 数据盘空间 * 90% * 80% thinpool是动态挂载,在节点上使用df -h命令无法查看到,使用lsblk命令可以查看到。 图2 Device Mapper类型容器引擎空间分配 OverlayFS类型存储Rootfs 相比Device
ter节点规格是否一致。 解决方案 该问题一般因为您进行过Master节点改造,此次升级可能会将您的Master节点重置为标准版本; 如您无法确认影响,请您提交工单联系运维人员支撑。 父主题: 升级前检查异常问题排查
CentOS 7.6节点内核低于3.10.0-1160.66.1.el7.x86_64的场景下,节点上容器出现OOM后,可能遇到节点上所有容器无法访问,docker、jdb等相关进程处于D状态,节点重启后恢复。 问题根因 业务容器内存使用超过容器的内存限制量时,触发cgroup OOM,被系统内核终止。容器cgroup
tlsConfig: caFile: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt serverName: kubernetes jobLabel: component namespaceSelector:
若要保留差异部分配置,您可采用以下方法之一: (推荐)将“parameterSyncStrategy”参数配置为“inherit”,差异配置将自动继承,由系统自动解析、识别与继承差异参数。 将“parameterSyncStrategy”参数配置为“force”,您需手动填写差异配置,详情请参考CoreDNS域名解析。
单击“添加容器网段”进行添加。 使用“容器隧道网络”模型的集群暂不支持添加容器网段。 容器网段添加后无法删除,请谨慎操作。 服务网段默认为10.247.0.0/16,容器网段不能选择此网段。 父主题: 网络规划
场景。 AI加速型:AI加速型节点实例,搭载高性能、低功耗的海思Ascend 310 AI处理器,实现快速高效地处理推理和图像识别等工作,适用于图像识别、视频处理、推理计算以及机器学习等场景。 通用型(节点规格为4U8G) 系统盘类型 高IO:后端存储介质为SAS类型。 超高IO:后端存储介质为SSD类型。
基于Prometheus指标的弹性伸缩实践 Kubernetes默认的HPA策略只支持基于CPU和内存的自动伸缩,在复杂的业务场景中,仅使用CPU和内存使用率指标进行弹性伸缩往往无法满足日常运维需求。为此,CCE提供云原生监控插件(kube-prometheus-stack),可全面对接开源Prometheus生态,支
根据GPU/NPU卡信息定位使用该卡的Pod 在CCE中使用GPU/NPU卡时,无法直接获取到使用该卡的Pod。您可以根据GPU/NPU卡的信息,通过kubectl命令行操作筛选Pod,以便在GPU/NPU卡故障时能够及时将Pod驱逐。 前提条件 已创建CCE集群,且配置了kub
为CCE Turbo集群配置默认容器子网 操作场景 当创建CCE Turbo集群时设置的容器子网太小,无法满足业务扩容需求时,您通过扩展集群容器子网的方法来解决。本文介绍如何为CCE Turbo集群添加容器子网。 约束与限制 仅支持v1.19及以上版本的CCE Turbo集群。 为CCE
sock文件。升级过程中Docker/Containerd将会重启,宿主机sock文件发生变化,但是容器内的sock文件不会随之变化,二者不匹配,导致您的业务无法访问Docker/Containerd。Pod重建后sock文件重新挂载,可恢复正常。 通常K8S集群用户基于如下场景在容器中使用上述sock文件:
Kubernetes API 无法响应,控制节点无法使用,甚至整个集群无法正常工作的情况。 集群过载会对集群控制平面及依赖该平面的业务产生影响。以下列举了一些可能受到影响的场景: Kubernetes资源管理:在进行创建、删除、更新或查询 Kubernetes 资源的操作时,可能会出现失败的情况。
调整容器运行时和Kubelet组件使用的数据盘大小存在一些风险,根据本文提供的预估方法,建议综合评估后再做实际调整。 过小的数据盘容量可能会频繁出现磁盘空间不足,导致镜像拉取失败的问题。如果节点上需要频繁拉取不同的镜像,不建议将数据盘容量调小。 集群升级预检查会检查数据盘使用量是否超过95%,磁盘压力较大时可能会影响集群升级。
工作负载弹性:CronHPA(CronHorizontalPodAutoscaler)+ HPA(Horizontal Pod Autoscaling) 集群节点弹性:CA(Cluster AutoScaling) 图1 弹性伸缩场景 父主题: 应用场景
为什么需要Ingress Service基于TCP和UDP协议进行访问转发,为集群提供了四层负载均衡的能力。但是在实际场景中,Service无法满足应用层中存在着大量的HTTP/HTTPS访问需求。因此,Kubernetes集群提供了另一种基于HTTP协议的访问方式——Ingress。
/mnt/paas/kubernetes/kubelet 扩容磁盘。 将新增的磁盘容量加到容器引擎使用的dockersys逻辑卷上。 扩容物理卷PV,让LVM识别EVS新增的容量。其中/dev/sdb为dockersys逻辑卷所在的物理卷。 pvresize /dev/sdb 回显如下: Physical
通过Service访问Pod Ingress介绍 通过Ingress访问Pod 24:27 11 通过Ingress访问Pod 最佳实践 HPA+CA弹性伸缩 使用HPA+CA实现工作负载和节点联动弹性伸缩 10:36 工作负载和节点联动弹性伸缩 多个应用实现弹性伸缩 通过Nginx Ingress对多个应用进行弹性伸缩
alth 时执行这个功能,然后返回对应结果。这里要注意不能做鉴权,不然probe就会一直失败导致陷入重启的死循环。 另外检查只能限制在应用内部,不能检查依赖外部的部分,例如当前端web server不能连接数据库时,这个就不能看成web server不健康。 Liveness Probe必须轻量