检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
r的支持。 解决方案 若您的节点的运行时非containerd,您可通过节点重置功能重置节点的运行时为containerd。 如果您仍想在1.27以上集群中创建并使用docker节点,可跳过该告警,但推荐您尽快切换至containerd,它提供了更出色的用户体验和更强大的功能。 父主题:
top node命令为何报错 故障现象 执行kubectl top node命令报错Error from server (ServiceUnavailable): the server is currently unable to handle the request (get nodes
expr: kube_pod_container_resource_requests{resource="cpu",unit="core"} - record: cpu_limit expr: kube_pod_container_resource_limits{resource="cpu"
spec: containers image(必选):容器镜像名称。 imagePullPolicy(可选):获取镜像的策略,可选值包括Always(每次都尝试重新下载镜像)、Never(仅使用本地镜像)、IfNotPresent(如果本地有该镜像,则使用本地镜像,本地不存在时下载镜像),默认为Always。
y 两种策略:Retain, Delete Retain 支持初始化时配置,不支持后续修改 - 回收策略配置为Retain时,当删除与之绑定的PVC,这个PV被标记为Released,且底层卷保留。回收策略为Delete时,当删除与之绑定的PVC,底层卷及PV也会被删除。 配置建议:
查看是否存在排水任务,以下为正常回显: kubectl get drainage 图1 排水任务,以下回显表示存在排水任务 请将drainage资源进行删除,删除之后再次触发升级前检查。 执行以下命令删除排水任务。 kubectl delete drainage {排水任务名称} 父主题: 升级前检查异常问题排查
华为云上的Kubernetes集群管理面托管在CCE管理平台上,证书也在CCE的管理平台上,不对用户开放,这个证书在平台上会定期维护,不会出现过期的情况。 X509证书在Kubernetes集群上也是默认开启的,更新平台自动会维护更新。 获取集群证书 通过CCE控制台获取集群证
是否开启精简卷本地存储池自动扩容,开启后,会根据本地存储池扩容阈值和扩容步长触发自动扩容。 expansion_threshold 扩展参数配置 精简卷本地存储池使用率扩容阈值,当精简卷本地存储池使用率超过阈值时,触发本地存储池自动扩容。 expansion_step 扩展参数配置 精简卷本地存储池单块EVS盘扩容步长,单位Gi
affinity: {} containers: image: nginx:latest imagePullPolicy: Always name: container-0 volumeMounts:
300 16 8 256 AI加速型 AI加速型弹性云服务器是是专门为AI业务提供加速服务的云服务器。基于Ascend芯片低功耗、高算力特性,能效比大幅提升,适用于AI推理场景和视频编解码场景。 AI加速型云服务器包括kAi系列和Ai系列两类。其中: kAi系列:ARM架构,处理器为鲲鹏920系列。
persistentVolumeClaim: claimName: cce-sfs-demo 表1 关键参数说明 前置路径 参数 描述 spec replicas 实例数。 metadata name 新建工作负载的名称。 spec.template.spec.containers image
RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE mysql-pv 5Gi RWO Delete Available
1及以上版本插件支持),具体如下: 原agent模式:关闭本地数据存储,且监控数据上报至AOM服务和监控数据上报至第三方监控平台至少开启其中之一。 原server模式:开启本地数据存储,同时支持开启监控数据上报至AOM服务或监控数据上报至第三方监控平台。 登录CCE控制台,单击集群名称进入集群,
节点上umount磁盘挂载路径 Pod写入本地磁盘 重新mount对应目录到Pod中 Buffer里面是待消费的日志缓存文件 节点上直接操作EVS Pod写入本地磁盘 无 无 创建PV时带有未在文档中声明的参数 例如,创建PV时,Yaml文件中涉及status、spec.claimRef以及annotation
集群安装nginx-ingress插件失败,一直处于创建中? 问题背景 客户已经购买并搭建了CCE集群,希望在公网上可以访问到CCE上部署的应用服务,目前最高效的方式是在ingress资源上注册该应用的Service路径,从而满足要求。 但客户安装ingress插件后,插件状态一
在存储池中导入临时卷 CCE支持使用LVM将节点上的数据卷组成存储池(VolumeGroup),然后划分LV给容器挂载使用。在创建本地临时卷前,需将节点数据盘导入存储池。 约束与限制 本地临时卷仅在集群版本 >= v1.21.2-r0 时支持,且需要everest插件版本>=1.2.29。 节点上的
25及以上集群中的service存在废弃的annotation:tolerate-unready-endpoints 报错日志信息如下: some check failed in cluster upgrade: this cluster has deprecated service list: map[***]
指标说明 PVC视图暴露的指标如下: 表1 PVC图表说明 指标名称 单位 说明 PV状态 / PV当前所处的状态,包含Available、Bound、Failed、Pending、Released。 PVC状态 / PVC当前所处的状态,包含Bound、Lost、Pending。
配置Gitlab项目 获取源码到本地。本实践中将使用一个Java示例。 在Gitlab上创建ccedemo项目组。 在ccedemo项目组中添加java-demo项目。 上传项目代码至本地Gitlab仓库。 cd ~/java-demo-main //目录地址按实际情况 git
安装kube-prometheus-stack插件时, 插件状态一直处于“部分就绪”,查看插件的prometheus实例事件中提示“0/x nodes are available: x node(s) had volume node affinity conflict.”。 如果选择安装grafana组件,也可能出现同样的问题。