检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
NoSchedule:一定不能被调度。 PreferNoSchedule:尽量不要调度。 NoExecute:不仅不会调度,还会驱逐Node上已有的Pod。 若需要重新设置污点时,可执行kubectl taint node [node] key:[effect]-命令去除污点。 安全驱逐节点上的工作负载。
如果paas用户权限中带有"nologin"或者"false",说明paas用户没有登录权限,需要先恢复paas用户的登录权限命令。 执行以下命令恢复paas用户权限之后重新检查: usermod -s /bin/bash paas 父主题: 升级前检查异常问题排查
启动过慢,影响docker标准输出,影响nginx等功能的正常使用。 解决方案 请手动删除残留的镜像,防止后续升级异常; 删除镜像之后请您重新进行升级前检查 父主题: 升级前检查异常问题排查
systemd-journald命令查询journald服务运行状态。若回显状态异常,请执行systemctl restart systemd-journald命令后重新查询状态。 以下为正常回显: 图1 journald服务运行状态 若重启journald服务无法解决该问题,请联系技术支持人员。 父主题:
若有配置访问控制则检查相关配置项是否正确。 解决方案 如果配置项存在错误,请参考为负载均衡类型的Service配置黑名单/白名单访问策略进行重新配置。 父主题: 升级前检查异常问题排查
解决方案: 若您的密钥错误将会导致镜像拉取失败,请重新获取密钥。 创建密钥的方法请参见使用kubectl创建第三方镜像仓库的密钥。 排查项四:节点磁盘空间不足 当k8s事件中包含以下信息,表明节点上用于存储镜像的磁盘空间已满,会导致重新拉取镜像失败。您可以通过清理镜像或扩容磁盘解决该问题。
登录CCE控制台,进入集群,在集群详情页面右侧查看控制节点数量: 3个节点即为多控制节点模式。 1个节点即为单控制节点模式。 集群一旦创建,便无法更改控制节点数,需要重新创建集群才能调整。 父主题: 集群运行
NetworkManager命令查询NetworkManager服务运行状态。若回显状态异常,请执行systemctl restart NetworkManager命令后重新查询状态。 如果上述操作无法解决,建议您进行重置节点操作,参考重置节点。如果您不想重置节点,请联系技术支持人员恢复配置文件后进行升级。 父主题:
exists#__ 以上报错代表您的节点上缺少了chage、chown、chmod、mkdir、in、touch、pidof等命令,请安装对应命令之后重新检查。 父主题: 升级前检查异常问题排查
依赖于StorageClass的动态创建PV能力。在多实例的有状态负载中,动态挂载可以为每一个Pod关联一个独有的PVC及PV,当Pod被重新调度后,仍然能够根据该PVC名称挂载原有的数据。而在无状态工作负载的普通挂载方式中,当存储支持多点挂载(ReadWriteMany)时,工
依赖于StorageClass的动态创建PV能力。在多实例的有状态负载中,动态挂载可以为每一个Pod关联一个独有的PVC及PV,当Pod被重新调度后,仍然能够根据该PVC名称挂载原有的数据。而在无状态工作负载的普通挂载方式中,当存储支持多点挂载(ReadWriteMany)时,工
源,迁移后需重新对接ELB,您可参考添加Ingress-对接已有ELB。 通过kubectl连接集群。 编辑对应Service的YAML文件,修改服务类型及端口。 kubectl edit svc wordpress LoadBanlancer资源进行更新时,需要重新对接ELB。
请登录该节点,执行systemctl status ntpd命令查询ntpd服务运行状态。若回显状态异常,请执行systemctl restart ntpd命令后重新查询状态。 以下为正常回显: 图1 ntpd运行状态 若重启ntpd服务无法解决该问题,请联系技术支持人员。 问题场景二:chronyd运行异常
依赖于StorageClass的动态创建PV能力。在多实例的有状态负载中,动态挂载可以为每一个Pod关联一个独有的PVC及PV,当Pod被重新调度后,仍然能够根据该PVC名称挂载原有的数据。而在无状态工作负载的普通挂载方式中,当存储支持多点挂载(ReadWriteMany)时,工
查看创建节点失败原因,尝试重新创建节点 扩容节点超时 CCE 扩容节点超时立即触发 查看扩容节点失超时原因,尝试重新扩容节点 缩容节点失败 CCE 缩容节点超时立即触发 查看缩容节点失超时原因,尝试重新缩容节点 拉取镜像重试失败 CCE 拉取镜像重试失败 登录集群查看拉取镜像失败原因,重新部署业务负载
生变化,但是容器内的sock文件不会随之变化,二者不匹配,导致您的业务无法访问Docker/Containerd。Pod重建后sock文件重新挂载,可恢复正常。 通常K8S集群用户基于如下场景在容器中使用上述sock文件: 监控类应用,以DaemonSet形式部署,通过sock文
若手动删除了某个正在运行的容器,容器编排工具会根据定义的部署策略重新调度并重建该容器,以保持预期的实例数量。 Pod优先级抢占 当高优先级的Pod需要资源时,Kubernetes可能会驱逐低优先级的Pod,低优先级Pod可能会被重新调度和启动。 配置更新 更新Deployment或Sta
is valid),需要重新绑定EIP并重新下载kubeconfig.yaml。 早期未支持域名双向认证时,kubeconfig.yaml中包含"insecure-skip-tls-verify": true字段,如图3所示。如果需要使用双向认证,您可以重新下载kubeconfig
是否允许修改 作用范围 target_service_port 无 无 允许 CCE Standard/CCE Turbo 健康检查端口 重新指定的健康检查端口,不指定时默认使用业务端口。 参数名 取值范围 默认值 是否允许修改 作用范围 monitor_port 无 无 允许 CCE
该API用于吊销指定集群的用户证书 吊销操作完成后,此证书申请人之前下载的证书和 kubectl 配置文件无法再用于连接集群。此证书申请人可以重新下载证书或 kubectl 配置文件,并使用新下载的文件连接集群 接口约束 吊销用户集群证书首先需要获取用户ID,如何获取 ID: 方式一